국제 국제일반

오픈AI 보고서 “러·중 등, AI 기술로 여론전…활동 차단"

AI 기술 악용 사례 담은 첫 보고서 발표

이스라엘도 가자전쟁 여론전에 AI 활용

中, 오염수 기사 한국어 번역 日 비난

오픈AI. AP연합뉴오픈AI. AP연합뉴




러시아, 중국, 이란, 이스라엘이 여론전을 위해 오픈AI의 생성형 인공지능(AI)을 사용했다고 뉴욕타임스(NYT)가 30일(현지시간) 보도했다.



NYT에 따르면 오픈AI는 보고서를 통해 "인터넷상의 '기만적인 활동'(deceptive activity)에 우리의 AI(인공지능) 모델을 이용하려는 5건의 은밀한 시도를 확인했다"며 "이를 차단했다"고 밝혔다.

오픈AI의 이번 보고서는 자사의 도구들이 어떻게 악용됐는지 밝힌 첫 사례라고 소셜미디어 연구원들은 지적했다. 특히 전 세계적으로 주요 선거가 진행되는 상황에서 이 기술이 악용될 수 있는지에 대한 의문을 일으켰다고 NYT는 전했다.

오픈AI는 "위협 행위자들(threat actors)이 지난 3개월 동안 우리의 AI 모델을 사용해 짧은 댓글과 다양한 언어로 된 긴 기사를 만들고, 가짜 소셜미디어(SNS) 계정을 만들었다"고 설명했다.



오픈AI는 러시아 2곳과 중국, 이란 각 1곳이 이런 시도를 했으며, 이스라엘 그룹도 포함됐다고 밝혔다.

관련기사



오픈AI의 주요 조사관인 벤 님모는 “사례 연구를 통해서 현재 지속되고 있는 캠페인의 일부 사례를 보여줬다”며“이런 캠페인들은 여전히 청중을 확보하기 위해 나오고 있다”고 말했다.

보고서는 연구자들이 수년간 추적해온 결과 중국의 스팸메일이나 러시아 정보전인 ‘도플갱어’로부터 이 같은 허위 정보들을 확산했다고 분석했다. 오픈AI의 기술을 이용해 X(엑스·옛 트위터)에 영어, 프랑스어, 독일어, 이탈리아어, 폴란드어로 우크라이나 전쟁에서 러시아를 지지하는 내용의 댓글을 썼다는 게 오픈AI의 설명이다.

오픈AI에 따르면 중국은 중국어와 한국어, 일본어, 영어로 게시물을 작성하기 위해 챗GPT를 사용했고, 이란도 사이트에 게시한 기사를 챗GPT로 만들었다.

중국은 또 지난해 하반기 후쿠시마 오염수 방출과 관련한 기사를 한국어를 비롯해 영어와 일본어, 중국어, 러시아어로 번역해 일본 비난에 이용했다고 오픈AI는 설명했다.

다만 보고서는 “인공지능 전문가들이 예측한만큼 생성형AI로 만든 허위 정보가 아직 설득력 있는 수준은 아니다”고 전했다. 허위정보 연구회사 그래피카의 최고 정보 책임자 잭 스텁스는 “우리가 우려하는 AI로 인한 허위정보의 확산이 아직까진 구체화된 정도는 아니다”고 진단했다.

변수연 기자
<저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지>




더보기
더보기





top버튼
팝업창 닫기
글자크기 설정
팝업창 닫기
공유하기