인공지능이나 얼굴매핑(facial mapping) 기술을 활용해 특정 영상에 합성한 편집물인 ‘딥페이크’(deepfake)의 위험을 경고하는 목소리가 커지고 있다. 딥페이크는 특정인의 표정이나 버릇, 목소리, 억양 등을 흉내 내 하지도 않은 말을 얼굴을 드러내놓고 말한 것처럼 보이게 한다.
딥페이크가 아직까진 큰 문제는 아니지만, 기술발전과 함께 1~2년 이내에 미국뿐만 아니라 국제사회에 큰 문제를 초래할 수 있다고 AP통신이 2일(현지시간) 보도했다. 이 거짓 영상들이 온라인에 유통될 경우 ‘역정보 전쟁’(disinformation war)의 새로운 무기로 활용될 수 있다는 것이다.
이 기술은 지금까지는 주로 유명인을 비방하거나 개그맨들의 웃음거리 소재로 활용됐지만, 앞으로는 정치인 또는 국가를 상대로 한 악의적인 활동에 활용될 수도 있다. 미국의 정치인들이나 정보관계자들은 이 가짜 동영상이 국가 안보를 위협하거나 선거에 개입할 수도 있다고 우려하고 있다.
공화당 소속 마르코 루비오 상원의원은 외국 정보기관이 가짜 동영상을 만들어 미국 정치인이나 미군의 평판을 훼손할 수 있다고 경고했다. 예컨대 뇌물을 받거나 인종차별적 욕설을 하는 미국 정치인, 또는 해외에서 민간인을 학살하는 미군에 관한 가짜 동영상을 만들어 유포할 수 있다는 것이다.
미국 다트머스 대학의 디지털 포렌식 전문가인 하니 파리드는 “미국에서는 (오는 11월) 중간선거와 2년 후 전국 차원의 선거에서 이런 문제들을 겪기 시작할 것”이라고 주장했다. 그는 “물론 이 기술은 국경이 없는 만큼 그 영향이 전 세계적으로 번질 것”이라면서 “우리가 직접 목격한 것조차 믿기 어려운 새로운 세상에 들어서고 있다”라고 지적했다.
미국 국방부 소속 방위고등연구계획국(DARPA)은 이 문제의 심각성을 깨닫고 이미 2년 전, 가짜 사진과 가짜 동영상을 분간할 수 있는 기술을 개발하기 위해 연구 프로그램에 착수했다. 하지만 현재 DARPA의 기술 수준이 날로 발전하는 딥페이크 기술을 따라잡을 수 있을지는 확실치 않다. 딥페이크 기술은 아직 완전하지 못해 거짓 동영상에서 사람들이 눈을 깜박이는 모습이 부자연스러울 수 있지만 이마저도 개선돼 가고 있다.
미국 스탠퍼드대학 국제안보협력센터(CISC) 앤드루 그로토 연구원은 “1~2년 안에 진짜 동영상과 가짜 동영상을 구별하기는 정말로 어려울 것”이라며 많은 나라가 이를 활용하려는 유혹에 빠질 가능성이 크다고 진단했다. 이미 대충 만든 동영상이 악의적 목적에 사용되는 현실을 보면, 치열해지는 역정보 전쟁에서 딥페이크 기술이 활용되지 않을 이유가 없다는 것이다. /권혁준인턴기자 hj7790@sedaily.com