초대형 인공지능(AI) 학습에 사용되는 데이터베이스에서 1000여 개의 아동 성 학대 이미지가 발견됐다. 소아성애자들이 AI로 아동 착취 이미지를 양산하는 가운데 학습자료조차 ‘오염’된 것이 확인되며 AI의 위험성에 대한 경각심이 더욱 커지고 있다.
20일(현지 시간) 미국 스탠퍼드대학 인터넷 감시소는 이미지 데이터베이스 ‘레이온(LAION)-5B’에서 1008장의 아동 성 학대 사진이 발견됐다고 밝혔다. 레이온-5B는 50억 개 이상 이미지가 담긴 AI 학습용 데이터베이스다. 인기 이미지 생성 AI인 ‘스테이블 디퓨전’ 등의 학습에 쓰였다. 스탠퍼드대는 “이 데이터를 기반으로 학습한 AI가 현실적인 아동학대 콘텐츠를 생성할 수 있는 잠재력을 지닌다”고 지적했다.
레이온-5B는 독일 소재 비영리단체 레이온이 2022년 공개한 데이터베이스다. 레이온 측은 불법 콘텐츠에 ‘무관용 원칙’을 갖고 있다며 즉각 데이터베이스를 삭제하고 안전성을 확인 중이다. 스테이블 디퓨전 측도 “AI 문제 행동을 최소화하기 위해 데이터베이스를 필터링한 후 학습했다”고 항변했다.
그러나 이미 이 데이터를 통해 학습된 AI에서 문제가 되는 부분을 삭제하는 데는 한계가 있어 보인다. AI가 이미지를 생성하는 데는 사진 몇 장이면 충분하고, 개발자들조차 생성형 AI의 내부 작동 구조를 모두 파악하지 못하는 탓이다. 블룸버그는 “스테이블 디퓨전 2.0은 필터링한 자료로 교육 받았지만 1.5 버전은 여전히 성적으로 노골적인 이미지를 생성하고 있다”며 “AI에서 아동 성착취 이미지를 제거하더라도 ‘아동’과 ‘성’이라는 두 개념을 결합해 불법 이미지를 만들어낼 수 있다”고 전했다.