여가부 "대학가 딥페이크 사건, 신고 접수 시 영상 삭제 지원"

"아직까지 신고 없어…접수 시 수사기관 연계"

연합뉴스

최근 대학생 텔레그램 단체 채팅방에서 여학생들의 얼굴을 나체 사진에 합성하는 이른바 ‘딥페이크’ 사진이 공유된 사건과 관련해 여성가족부가 여성가족부가 경찰에 피해자 연계를 요청했다고 22일 밝혔다. 향후 산하 기관인 디지털성범죄피해자지원센터에서 영상물 삭제 등도 지원한다는 방침이다.


여가부는 이날 정부서울청사에서 열린 정례브리핑에서 “관련 사건에 대한 피해 접수는 아직까지 없었고, 피해 사실이 들어올 경우 수사기관에 피해자 연계를 요청해 둔 상태”라며 “경찰청의 불법 촬영물 추적시스템에 (해당 영상물이) 업로드되면 디지털성범죄피해자지원센터와 함께 삭제 지원에 나서겠다”고 말했다.


여가부는 “지난 2월 인천 디성센터를 통해 피해자 지원 방안을 문의하는 상담이 들어와 지원 방법을 안내했다”며 “다만, 이후에 정식 피해 사실 신고나 지원 신청이 들어오진 않았다”고 설명했다.


딥페이크 등 허위 영상물과 관련해 입법 미비사항이 많다는 지적에 대해서는 “인식하고 있다”며 “과학기술정보통신부와 협업해 법제도 개선과 정책 연구를 추진하고 있으며 11월께 마무리할 예정”이라고 답했다.


그러면서 “앞서 경찰청 등 범부처 합동 대응체계 강화 방안을 세우고 있고, 허위 영상물 탐지 시스템을 고도화하는 예산을 확보하려고 노력 중”이라고 강조했다.


최근 인천경찰청 사이버범죄수사대는 성폭력범죄의 처벌 등에 관한 특례법 위반 혐의로 텔레그램 단체 대화방 운영자 A씨 등을 수사하고 있다고 밝혔다.


경찰에 따르면 이들은 인공지능(AI)을 이용한 '딥페이크' 기술로 여성 얼굴을 나체 사진에 합성한 성범죄물을 텔레그램 단체 대화방에서 공유한 혐의를 받는다.


<저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지>