역사학자이자 세계적 베스트셀러 작가인 유발 하라리(사진)가 ‘GPT-4’ 등 최첨단 인공지능(AI)의 위험성을 지적하며 인류가 통제 방법을 찾기 전까지 AI 도입 속도를 조절해야 한다고 주장했다.
하라리는 인도적기술센터 공동 설립자인 트리스탄 해리스, 아자 래스킨과 24일(현지 시간) 뉴욕타임스(NYT)에 낸 공동 기고문에서 “AI의 언어 습득은 곧 AI가 문명의 운영체제(언어)를 해킹하고 조작할 수 있게 됐다는 의미”라고 주장했다. 과거에는 AI의 인류 지배 가능성이 막연한 두려움에 가까웠던 반면 GPT-4 같은 최근의 언어 모델은 실질적인 위험으로 떠올랐다는 것이 이들의 평가다. 그는 “이제 AI는 수천 년간 쌓아 올린 문명 전체를 빠르게 먹어 치우고, 소화하고, 새로운 문명을 만들어낼 수도 있다”고 우려했다. 체스 게임을 넘어 예술·정치·종교 등의 분야에서도 AI에 패배하고 조종당할 수 있다는 의미다. 이에 기고문은 “2028년 미국 대선은 더는 사람이 주도하는 선거가 아닐 수도 있다”고 전망했다.
비(非)인류가 만들어낸 문명 속에서 살아간다는 사실을 우리가 깨닫지조차 못할 수 있다는 경고도 이어졌다. 하라리는 영화 ‘터미네이터’와 ‘매트릭스’ 등을 언급하며 “언어에 숙달한 AI는 우리의 뇌에 칩을 심지 않고도 인간을 환상 속에 가둘 수 있을 것”이라고 말했다. 그동안 인류의 간접적 경험 수단이던 책·미술품·종교 등에 AI가 개입해 가치관 형성에 영향을 미칠 수 있다고 그는 덧붙였다. 기고문은 “이미 소셜미디어에 사용된 원시적 수준의 AI조차 사회 양극화, 정신 건강 문제, 민주주의 혼란 등을 초래했다”며 훨씬 강력한 거대 언어 모델 AI가 가져올 부정적 여파를 우려했다.
하라리는 AI가 질병·기후·에너지 위기 해법 개발 등에 도움이 될 수 있다는 점을 인정하면서도 문명의 기반이 무너진다면 그 모든 혜택이 소용이 없다고 봤다. 그는 “민주주의는 곧 대화이며 대화는 언어에 의존한다. 언어 자체가 해킹을 당한다면 민주주의도 지킬 수 없다”면서 “혼란이 닥친 후에는 이미 수습하기에 늦다”고 말했다. 이에 기고문은 AI의 뛰어난 능력에 상응하는 책임·통제가 따라와 조화를 이뤄야 한다는 결론과 함께 그 첫걸음은 “인간이 먼저 AI를 장악할 수 있도록 시간을 버는 것”이라며 세계 지도자들이 AI의 위험성에 서둘러 대응해야 한다고 촉구했다.