“정보기술의 혁명은 기술자와 기업가·과학자들이 만들지만 이들은 자신들의 결정이 어떤 정치적 함의를 갖는지 거의 알지 못하며 어느 누구도 대표하지 않는다. 의회와 정당이 알아서 행동을 취할 수 있을까. 현재로서는 그럴 것 같지 않다.”
역사학자 유발 하라리가 쓴 ‘21세기를 위한 21가지 제언’의 한 구절이다. 문명과 인류를 뒤흔들 변화가 기업가와 기술자를 중심으로 준비되는 상황에서 이를 견제해야 할 시민들과 정치가 역할을 못하는 현실을 꼬집었다. 대규모언어모델(LLM)이 촉발한 인공지능(AI) 발전 국면을 보면 하라리의 지적에 공감하게 된다.
최근 일단락된 오픈AI 사태의 본질은 단순한 파워게임이 아니라 AI 기술 발전 속도와 안전성 확보 간의 적절한 균형에 대한 견해 차이였다. AI 발전으로 최대 이익을 누릴 오픈AI에서 이러한 논쟁이 발발한 점은 주목할 만하다. 내막은 공개되지 않았지만 ‘큐스타’라는 차세대 모델이 불쏘시개가 된 듯하다. 샘 올트먼 오픈AI 최고경영자(CEO)가 ‘창사 이래 네 번째 중요한 순간’이라 할 만큼 AI 수준을 한 단계 끌어올릴 무시무시한 능력이 연구자들의 두려움을 자극한 것으로 짐작된다.
파괴적 가능성에도 모든 것이 오픈AI 이사회라는 기업가·기술자들의 ‘밀실’에서만 논의됐다. 도저히 과학자와 기술자 손에만 맡길 수 없는 중대한 결정이 그곳에서 일어난들 밀실 밖의 사람들은 알 수 없다. 챗GPT가 역사상 가장 빨리 1억 명의 사용자를 모았듯 향후 오픈AI가 내릴 결정의 파장은 삽시간에 전 세계로 퍼질 것이다. 이달 초 영국에서 각국 정상들이 AI 기술의 파국적 결과를 막기 위해 모인 지 한 달이 채 지나지 않았지만 이번 오픈AI 사태에서 정치와 대중이 할 수 있는 일이라고는 그저 관망하는 것뿐이었다.
흔히 LLM을 ‘블랙박스’라고들 한다. 천문학적 단위의 매개변수에 방대한 데이터를 학습한 모델의 메커니즘은 이를 창조한 이조차 이해할 수 없기 때문이다. 그러나 정작 더 큰 문제는 LLM이라는 블랙박스가 아니다. AI를 발전시키는 과정에서 동반돼야 할 사회 차원의 숙의와 정치 과정에 생기는 ‘블랙박스’야 말로 진짜로 인류를 위험에 빠뜨릴 수 있다. AI 안전성 확보를 위한 사회적 논의가 보다 활발하게 이뤄져야 할 때다.