오픈AI가 인공지능(AI)이 작성한 텍스트를 99.9% 정확도로 탐지할 수 있는 기술을 개발했지만, 이를 2년 넘게 공개하지 않고 있다는 보도가 나왔다.
월스트리트저널(WSJ)은 이 사안에 정통한 관계자와 입수 문건 등을 인용해 챗GPT 개발사인 오픈AI가 챗GPT를 사용해 작성한 에세이, 논문 등 텍스트를 탐지할 수 있는 기술을 개발했지만, 이를 공식 출시하지 않고 있다고 5일(현지시간) 보도했다. 이 기술은 인간의 눈으로는 보이지 않는 워터마크를 삽입한다. 이후 오픈AI의 탐지 기술로 이 표시를 찾아내 AI로 작성됐을 가능성을 점수로 제시한다. WSJ은 “오픈AI가 이 프로젝트에 대해 2년간 내부 논쟁을 벌여 왔고, 약 1년 동안 출시를 준비해 왔다”며 “버튼 하나만 누르면 되는 상황”이라고 전했다. 사실상 실행(출시 발표)만 남았다는 이야기다.
WSJ에 따르면 워터마크에 대한 논의는 2022년 11월 챗GPT 출시 이전부터 시작됐다. 이 기술은 텍사스대 컴퓨터과학과 스콧 아론슨 교수가 개발한 것으로, 그는 학교를 휴직한 뒤 2년간 오픈AI에서 AI 안전성 관련 작업을 해왔다.
오픈AI에서는 이 워터마크 기술을 두고 사용자 유치 및 확대와 사용의 투명성 사이에서 고민을 이어가는 것으로 알려졌다. 일부 직원들은 이 기술이 가져올 긍정적인 영향을 강조하며 공개 및 출시를 지지하고 있다. 최근 조사에 따르면 미국 중고등학교 교사의 59%가 ‘일부 학생들이 과제에 AI를 사용하고 있다’고 확신하고 있다. 이는 전년 대비 17% 증가한 수치다.
반면 또 다른 직원들은 워터마크를 간단한 기술로 얼마든지 지울 수 있다는 우려를 제기했다. AI가 생성한 텍스트를 구글 번역기 등을 사용해 다른 언어로 바꾼 뒤 다시 원래 언어로 번역한다거나 이모티콘을 추가·삭제하는 방식으로 원문의 구조를 바꿔 워터마크를 손상시킬 수 있다는 것이다.
오픈AI의 내부용 자체 설문 조사 결과도 결정을 어렵게 만들고 있다. 지난해 4월 챗GPT 사용자들을 대상으로 한 조사에서 69%의 응답자는 AI 사용 탐지 기술이 AI 사용자에 대한 누명(AI로 작성했다는 의심·비난)으로 이어질 수 있다고 생각하며, 약 30%는 만약 챗GPT가 워터마크를 도입하고, 경쟁사는 도입하지 않는다면 챗GPT 사용을 줄이겠다고 답했다. 오픈AI 고위 임원과 연구원들은 6월 초에도 탐지 기술 공개를 두고 논의를 다시 진행했지만, 사용자 설문조사 결과가 여전히 큰 고민거리이자 부담이었던 것으로 알려졌다.
WSJ은 오픈AI가 올가을까지 AI 투명성에 대해 여론을 설득하고, 이 주제에 관한 잠재적인 법안에 대응할 계획을 짜는 등 전반적인 전략 수립에도 나설 계획이라고 전했다.