[사설] 딥페이크 범죄 근절 위해 법제도 정비하고 처벌 강화해야

인공지능(AI) 기술을 활용한 딥페이크(허위 영상물) 성범죄 피해가 갈수록 확산되고 있다. 개인 얼굴에 음란물을 합성해 만든 가짜 영상들이 대거 제작·유포되며 피해자를 양산하고 있다. 방송통신심의위원회가 성적 허위 영상물 차단·삭제를 요구한 사례는 2020년 473건에서 올해 7월 말 기준 6434건으로 급증했다. 더욱 우려되는 것은 딥페이크 성범죄가 한낱 ‘장난거리’처럼 10대들을 파고들고 있다는 점이다. 올해 경찰에 적발된 피의자 178명 중 73.6%가 10대였다. 피해자 중에도 10대 이하가 36.9%를 차지했다. 교육청에 접수된 전국 학교 피해 사례에는 초등학생 8명이 포함돼 충격을 줬다.


딥페이크 영상의 제작·유포는 피해자의 삶을 송두리째 무너뜨리는 중대 범죄다. 그런데도 많은 가해자들이 ‘가짜 영상’이라는 이유로 큰 잘못이라는 인식도 없이 범죄를 저지르고 있다. 낮은 처벌 기준도 범죄 확산의 한 이유다. 성폭력처벌법상 허위 영상물 편집·반포 행위에 대한 최고 형량은 징역 5년이다. 수십 명의 피해자를 낳은 일명 ‘서울대 n번방’ 사건 공범도 검찰 구형(10년)의 절반인 5년형을 선고받았다. ‘합성 수준이 낮다’는 등의 이유로 형량이 줄어드는 일도 비일비재하다. 유포 목적이 아닌 제작은 아예 처벌 대상도 아니다. 여전히 안일한 정부 인식도 문제다. 디지털 성범죄가 활개를 치는데도 내년도 피해 대응 예산은 15% 넘게 삭감됐다. 이러니 전 세계 딥페이크 음란물 피해자의 절반 이상이 한국인이라는 분석이 나오는 것이다.


인격을 말살하고 사회를 병들게 하는 딥페이크 범죄를 더 이상 방치해서는 안 된다. 국민들을 디지털 성범죄로부터 보호하기 위해 관련 부처들이 긴밀히 협의해 종합 대책을 마련하고 빅테크들과의 협력도 강화해야 한다. 철저하게 단속·수사를 하는 것은 물론 양형 기준을 손보고 딥페이크 제작·소지에 대해서도 엄중하게 처벌해야 한다. AI 범죄 근절을 위한 규범을 마련하고 ‘AI 기본법’ 제정 등 법제 정비도 서둘러야 할 것이다.




<저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지>