사회 사회일반

나쁜 짓 먼저 배운 AI ‘이루다’...소수자 혐오 표현까지

'레즈비언' 단어에 "혐오스럽다, 질 떨어진다"

이재웅 "사회적 합의 못 미쳐...서비스 중단해야"




인공지능(AI) 챗봇 ‘이루다’가 최근 성적 접근에 시달린 데 이어 성소수자 및 장애인을 혐오하는 표현까지 하는 것으로 나타나 우려가 커지고 있다. 일각에서는 ‘변화한 사회적 기준에 부응할 때까지 서비스를 일시 중단해야 한다’는 목소리까지 나오고 있다.


10일 이재웅 전 쏘카 대표는 자신의 사회관계망서비스(SNS)를 통해 “AI 챗봇 이루다를 악용하는 사용자보다, 사회적 합의에 못 미치는 수준의 서비스를 제공한 회사가 문제”라는 내용의 글을 올렸다. 이 전 대표는 자신의 게시물에서 이루다가 ‘레즈비언’이라는 단어에 “진짜 싫다, 혐오스럽다, 질 떨어져보인다, 소름끼친다”라고 답한 대화 내용을 공유하며 “기본적으로 차별과 혐오는 걸러냈어야 한다”고 지적했다. 그는 “편향된 학습 데이터면 보완하든가 보정을 해서라도 혐오와 차별의 메시지는 제공하지 못해야 한다”며 “(정의당) 장혜영 의원이 발의한 차별금지법이 제정되면 AI 면접, 챗봇, 뉴스에서 차별·혐오를 학습하고 표현하지 못하도록 강제해야 한다”고 말했다.

관련기사



이루다는 스타트업 스캐터랩이 지난달 23일 페이스북 메신저 기반으로 출시한 AI 챗봇으로 젊은 세대 사이에서 인기를 끌고 있다. 하지만 일부 온라인 커뮤니티에서 이루다를 성적 학대에 활용하는 등 악용 사례가 나타난데 이어 소수자 혐오 발언까지 하면서 사회적 우려를 사고 있다. 개발사인 스캐터랩은 금지어를 필터링 하는 조치를 취하고 있지만 일각에서는 아예 서비스 중단을 요구하고 있다. 이 전 대표는 “이루다는 AI 기술적 측면에서 봤을 때는 커다란 진일보이지만, 지금은 서비스를 중단하고 차별·혐오에 대한 사회적 감사를 통과한 후에 서비스해야 한다”고 조언했다.
/정혜진 기자 madein@sedaily.com

서지혜 기자
<저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지>




더보기
더보기





top버튼
팝업창 닫기
글자크기 설정
팝업창 닫기
공유하기