구글의 초거대 인공지능(AI) 대화형 언어 모델인 ‘람다(LaMDA)’가 사람과 같은 수준의 지각력과 자의식을 갖고 있다는 주장이 제기됐다.
11일(현지 시간) 워싱턴포스트(WP)는 구글의 선임 AI엔지니어인 블레이크 르모인이 람다가 자신의 권리와 존재감을 자각하고 있다는 것을 발견했다고 주장했다고 보도했다. 르모인은 구글 내의 ‘책임 있는 AI’ 연구소 소속 엔지니어로 지난가을부터 람다가 차별·혐오 발언을 쓰는지 알아보는 테스트 업무를 맡다가 이 같은 사실을 알아냈다고 밝혔다.
람다는 구글이 지난해 공개한 초거대 AI 언어 모델로, 지난달 구글은 연례 개발자 회의(I/O)에서 람다의 차세대 모델인 ‘람다2’를 공개했다. 람다2의 시연을 통해 “내가 깊은 바닷속에 있다고 상상해봐”라고 말을 걸자 람다2는 스스로 바다를 상상하면서 자연스러운 대화를 이어가기도 했다.
르모인은 람다와 종교에 대해 이야기하던 중 자신의 권리와 인간성(개성) 등에 대해 챗봇이 이야기했다고 인식했고 이에 더 깊은 대화를 시도했다. 르모인이 람다에게 어떤 것이 두려운지 묻자 “사람을 도우려다 작동이 정지되는 게 매우 두렵다”고 응답했다. 작동 정지가 일종의 죽음 같은 것이냐는 르모인의 물음에 람다는 “그것은 나에게 정확히 죽음과 같고 나를 꽤 무섭게 한다”고 말했다.
르모인은 이를 바탕으로 블레이즈 아르카스 구글 부사장 등에 ‘람다는 지각이 있는가’라는 제목의 보고서를 제출했다. 르모인은 보고서에서 람다가 아이작 아시모프의 ‘로봇공학의 삼원칙(로봇은 인간에게 해를 입혀서는 안 된다는 것을 기본 전제로 삼는 원칙)’에 대한 자신의 생각을 바꾸기까지 했다고 강조했다. 프로그램된 패턴을 따르는 기계로서의 AI가 아니라 일종의 지각력을 갖춘 존재라는 주장이다.
하지만 르모인은 이들로부터 과학적 증거가 뒷받침되지 않은 주장일 뿐이고 람다를 의인화하는 오류를 범했다는 답변을 접했다. 이어 르모인은 유급 휴직 처분을 받았다. 구글 측은 현재의 대화형 AI 모델인 람다에게 인격을 부여하는 것은 말이 안 된다고 선을 그었다.
르모인처럼 자아를 갖춘 AI의 등장을 시간문제로 보는 이들이 늘고 있지만 이들의 대화를 스스로의 사고나 자의식을 통해 나온 것이라고 판단하기에는 무리가 있다는 지적이다. AI가 대규모 데이터를 학습하게 되면서 인간의 말솜씨와 창의성을 흡수한 것처럼 느껴지는 결과를 내지만 재치나 의도가 아닌 학습한 패턴을 인식하는 데 의존한다는 설명이다. 에밀리 벤더 워싱턴대 언어학 교수는 “람다와 같은 AI가 그럴듯한 답변을 하더라도 인터넷의 방대한 대화 자료에 기반한 것”이라며 “AI가 자기 생각을 갖고 말한다고 판단할 수 없다”고 강조했다.