세계적인 석학이자 언어학자인 놈 촘스키(94) 미국 애리조나대 교수 겸 매사추세츠공대(MIT) 명예교수가 '챗GPT 열풍'에 대해 쓴소리를 내놨다.
촘스키 교수는 8일(현지시간) 이언 로버츠 케임브리지대 언어학 교수, 과학기술 기업인 오셔니트의 인공지능(AI) 국장인 제프리 와터멀과 함께 뉴욕타임스(NYT)에 '챗GPT의 거짓 약속'이라는 제목의 기고문을 내고 현재 AI의 한계를 통렬히 지적했다.
촘스키 교수 등은 "오늘날 소위 AI의 혁명적인 진보는 우려의 이유이자 동시에 낙관론의 이유가 되고 있다"며 '지능' 자체는 문제 해결의 수단이지만 현재 유행하는 머신러닝 유형의 AI는 "근본적으로 결함있는 언어와 지식 이해를 우리의 기술에 포함시켰다"고 비판했다. 오픈AI의 챗GPT와 구글의 바드, 마이크로소프트의 시드니 모두 경이적인 머신러닝 AI로 마치 인간처럼 언어를 구사하고 생각하는 것처럼 보이지만 실상은 그렇지 않다는 것이 석학들의 판단이다.
이들은 생성형 AI의 지평을 열어젖힌 이들 AI가 "처리 속도와 기억력과 같은 양적인 면뿐 아니라 통찰력과 예술적 창의성 등의 질적인 측면에서도 기계가 인간의 뇌를 추월하는 오랜 예언의 순간"을 기대하게 한다면서도 "그날은 언젠가 올지 모르지만 아직 동도 트지 않았다"고 일축했다. 특히 "챗GPT와 같은 머신러닝 프로그램이 계속 AI 분야를 지배한다면 그런 날은 오지 않을 것"이라고 덧붙였다.
촘스키 교수 등에 따르면 인간의 정신은 패턴매칭과 방대한 데이터를 학습해 가장 그럴듯한 답을 추론하는 챗GPT와 달리 "놀라울 정도로 효율적이고 우아하기까지 한 시스템"이다. 적은 양의 정보로도 작동하고, 데이터 사이의 상관관계를 추론할 뿐 아니라 그에 대한 설명까지 만들어 낼 수 있다는 점에서다. 예를 들어 어린아이가 극소량의 데이터로부터 무의식적이고 자동으로 빠르게 언어를 습득할 수 있는 것은 문법이라는 굉장히 정교한 논리적 원칙 덕분으로, 이는 "사람이 복잡한 문장을 생성할 능력을 갖추는, 유전적으로 설치된 타고난 '운영 체제'"라고 이들은 설명했다.
그러나 머신러닝 프로그램들은 "인류 출현 이전의, 또는 인간이 아닌 수준의 인지 혁명 단계에 갇혀 있다"고 촘스키 교수는 평가했다. 머신러닝 AI의 최대 결함은 '무엇이 옳은지'는 물론 '무엇이 옳지 않은지', '무엇이 옳거나 옳지 않을 수 있는지'도 구분할 수 있어야 한다는 지능으로서의 가장 핵심적인 역량이 결여됐다는 점이 꼽혔다.
아울러 현재 AI는 주로 묘사와 예상만 할 뿐이고, 조건법적 추측과 인과관계 설명에는 어려움을 겪는 것으로 진단됐다.
촘스키 교수는 "챗GPT와 같은 프로그램들은 설계상 가능한 것과 불가능한 것을 구분하지 못한다"면서 "머신러닝 시스템은 '지구가 평평하다'와 '지구가 둥글다'를 둘다 학습할 수 있다. 단지 시간이 흐르면서 확률이 달라질 뿐이라고 취급한다"고 지적했다.
그러면서 "이런 이유로 머신러닝 시스템의 예측은 항상 피상적이고 불확실하다"며 "설령 머신러닝의 예측이 맞더라도 이는 사이비 과학에 불과하다"고 말했다.
촘스키 교수 등은 "진짜 지능은 사실 같지 않더라도 통찰력있는 것들을 생각하고 표현할 능력에서 나타난다"며 "또한 진짜 지능은 윤리적 사고를 할 수 있다"고 강조했다.
이들은 구체적인 입장을 회피하고 자신의 무지를 인정하는 챗GPT의 답변들을 사례로 들며 "도덕관념과 언어학적 능력이 없는 가짜 과학 시스템이라는 점에서 그들의 대중적 인기에 울고 웃을 수밖에 없다"고 글을 마무리했다.