12월 초 페이스북은 회사 공식 블로그에 AI를 쉽게 소개한 글(제목: Artificial intelligence, revealed)과 동영상을 올렸다. 그동안 자사 제품이나 기술 홍보가 대부분이었지만 이번 블로그는 일반인이 쉽게 AI를 이해하는 것에 초점을 맞췄고 내용도 충실하다. AI가 SF영화에서 흔히 묘사되는 것처럼 신비롭거나 두려운 존재가 아니라 스마트폰과 자동차 등 이미 일상에 침투해 있는 친숙한 기술이며, 사람의 학습법을 모방해 컴퓨터를 학습시키는 수학 기반의 코드에 불과하지만 음성을 인식하거나 논리적인 추론도 할 수 있는 유용한 기술임을 강조했다.
자료 작성에는 페이스북의 AI 연구를 이끌고 있는 양대 조직(차세대 인공지능 연구팀, 머신러닝 응용 기술팀)의 연구 책임자들이 참여했다. 그 중 ‘얀 르쿤’은 딥러닝에서 널리 사용되는 회선신경망(CNN) 기술을 세계 최초로 개발한 대가이다.
페이스북이 왜 갑자기 연구 책임자들을 앞세워 AI 작동 원리나 개념 설명을 하는 것일까. 일반인들의 이해의 폭을 넓히고 학생들에게는 진로를 고민하고 준비하는 계기를 마련해주기 위한 것이라고 설명하지만 곱지 않은 시선을 보내는 사람들도 있다.
이는 미국 대선이 끝난 후 페이스북과 구글의 서비스를 통해 ‘가짜 뉴스’가 확산되고 그것이 도널드 트럼프의 당선에 영향을 끼쳤다는 일부 비평가들의 주장이 나오며 좋지 못한 여론이 확산되고 있기 때문이다. 미국 성인의 절반 가까이가 페이스북을 통해 뉴스를 접하고 검색은 사실상 구글이 지배하는 상황에서 가짜 뉴스의 영향력이 컸다는 것이다. ‘교황이 트럼프를 지지한다’거나 ‘클린턴이 e메일 사건으로 인해 2017년 기소될 것이다’와 같은 상위 20개 가짜 뉴스에 대한 ‘좋아요’나 댓글과 같은 사용자 반응이 상위 20개 정상 뉴스보다 약 15%나 더 많았다고 한다.
페이스북 최고경영자(CEO)는 페이스북에서 유통되는 정보의 99% 이상을 믿을 수 있으며 가짜 뉴스는 극히 일부분에 불과하고, 한쪽 진영만을 이롭게 한 것이라고는 생각하기 어렵다는 주장을 펼쳤지만 논란이 수그러들지 않자 적극적인 가짜 뉴스 근절 대책을 내놓았다.
AI를 이용한 가짜 뉴스 선별 능력 강화, 신고 절차 간소화, 기자들이 포함된 제3의 사실 여부 검사 전문 그룹과 협력 강화, 가짜 뉴스 배포 사이트 차단을 위한 광고 정책 조정 등을 약속했다. 폭력물이나 포르노와 같은 유해 동영상 등까지도 검사해 유해로 판단되면 꼬리표를 붙이는 기술을 개발해 시험하고 있다. 구글은 검색 결과 상단의 ‘뉴스’ 부분을 없애고 검색 관련 광고 네트워크에서 문제가 되는 가짜 뉴스 사이트를 제외하겠다고 했다.
구글과 페이스북은 이미 딥러닝 기술에 기반한 거의 완벽한 텍스트 인식 기술을 개발했고 높은 영상 분류 능력과 영상 이해기술(scene understanding)을 보유하고 있어 기술적인 문제는 거의 없을 것으로 보인다. 하지만 AI가 더 완벽한 수준에 이를 때까지 전체적인 맥락을 살피거나 사람의 개입을 필요로 할 수도 있다. 지난 9월 페이스북은 어린이 누드라는 기준에 따라 베트남 전쟁에서 미군의 폭격 뒤 나체 상태로 울부짖으며 뛰쳐나오는 소녀의 사진을 삭제했다가 심한 원성을 듣고 철회했다. 이 사진의 주인공은 전쟁의 참혹함을 보여주기 위해 사진 사용에 동의했는데도 말이다. 이처럼 가짜 뉴스와 유해 동영상을 판단할 때 획일적으로 정하기가 쉽지 않다. 풍자나 표현의 자유, 가치 전달의 극대화를 위해서는 적정 수준의 융통성도 필요하다.
국내에서는 포털이 오픈플랫폼 방식이 아니라 뉴스제휴평가위원회를 거친 검증된 뉴스가 올라와 별문제가 없다고 하나 여전히 허점이 적지 않아 주의를 기울여야 한다.
이석중 라온피플 대표