애플이 아동의 아이폰에서 신체 노출 사진이 전송될 경우 이를 걸러내는 기능을 조만간 도입한다.
12일(현지시간) 블룸버그통신에 따르면 애플은 메시지 앱에 이같은 이미지 필터링 기능을 탑재한 운영체제(OS) iOS 15.2를 배포할 예정이다.
이번 OS를 적용하면 서버가 아동이 가진 아이폰, 아이패드 등에서 주고받는 사진을 자동 분석해 노출도가 높은다고 판단하면 이를 뿌옇게 처리한 뒤 ‘민감한 내용이 있다’고 경고한다.
다만 아동의 부모에게 이런 상황이 자동으로 통지되지는 않는다. 메시지 앱의 이미지 필터링 기능을 작동하려면 가족 공유 계정에서 이를 활성화해야 한다.
애플의 이번 조치는 올 8월 애플의 아동 성 착취물 금지 노력이 사생활을 침해한다는 비판을 받고 나서 나왔다. 애플은 당초 메시지 앱에서 들어오고 나가는 이미지를 필터링하는 기능뿐만 아니라 아이클라우드에서 아동착취 음란물을 자동 탐지하는 기능, 인공지능(AI) 음성비서 '시리'를 통해 아동학대를 신고하는 기능 등을 추가하려고 했다.
그러나 아동착취 음란물 탐지 기능에 사용되는 알고리즘이 사람들을 감시하는 데 악용될 소지가 있다며 인권단체들이 거세게 반발했다.
이에 애플은 메시지 앱 이미지 필터링과 시리의 아동학대 보고 기능만을 이번에 도입하기로 하고, 아동착취 음란물 탐지 기능은 보류했다. 메시지 필터링의 경우 신체 노출이 심한 사진이 나오면 부모에게 자동 통지하려고 했지만 이번에 자동 통지 기능은 제외됐다.