북한과 중국, 러시아, 이란 등과 연계된 해커집단들이 생성형 인공지능(AI) 챗GPT를 활용하는 것으로 확인됐다. 생성AI가 범죄에 활용될 가능성을 증명하는 사실로, 이를 막기 위한 보안 대책의 중요성이 부각될 전망이다.
14일(현지시간) 뉴욕타임스(NYT)에 따르면 챗GPT 개발사인 오픈AI와 마이크로소프트(MS)는 해커집단들의 챗GPT 이용 사실을 감지하고, 이들의 사이트 접근을 차단했다고 밝혔다.
MS에 따르면 러시아와 연계된 한 해커집단은 우크라이나 전쟁과 관련해 위성통신과 레이더 기술에 대한 연구에 챗GPT를 활용했다. 이란의 이슬람혁명수비대와 연계된 해커집단의 경우 컴퓨터 보안 시스템 우회법을 모색하는 과정에 챗GPT의 도움을 받았다. 또한 이들은 국제 개발기구가 보내는 것으로 위장하거나, 페미니즘 활동가를 겨냥한 피싱 메일을 작성하는 데도 챗GPT를 활용했다.
다만 일부 전문가들이 우려한 것처럼 해커들이 AI의 힘을 빌려 지금껏 상상하지 못했던 공격법을 창조한 경우는 없었다는 것이 MS의 설명이다. 오픈AI의 보안분야 책임자인 밥 로트스테드는 "적대국가와 연계된 해커들이 오픈AI를 활용해서 일반 검색엔진보다 참신하고 새로운 공격 방법을 찾아냈다는 증거는 아직 발견되지 않았다"고 말했다.
이메일 초안을 작성하거나, 문서를 번역하고, 컴퓨터 프로그램의 오류 수정을 챗GPT에 맡기는 수준이었다는 것이다. 톰 버트 MS 보안분야 책임자는 "해커들도 일반 컴퓨터 사용자들처럼 생산성을 높이는 데 오픈AI를 사용했다"고 말했다. 오픈AI는 챗GPT 사용자들의 접속 장소를 추적할 수 있지만 해커들은 IP 조작 등을 통해 일반 사용자들처럼 챗GPT를 사용한 것으로 알려졌다.