‘사업 성패 가를수도’…AI 윤리 강화 나선 구글

연구 인력 200명→400명 늘리고
프로그램 검증팀 예산도 증액키로

구글이 인공지능(AI) 윤리 문제를 연구하는 인력을 2배로 늘리고 AI의 오류를 최소화하기 위해 예산 증액도 추진한다. AI 윤리에 대한 관심이 커지면서 윤리 강화가 사업의 성패를 가를 핵심 변수가 될 수 있는 만큼 문제 발생의 여지를 줄이기 위해 선제 대응에 나선 것이다.


11일(현지 시간) 월스트리트저널(WSJ)에 따르면 매리언 크로크 구글 엔지니어링 담당 부사장은 이날 WSJ 주최 행사에서 “AI 윤리 담당 연구진의 규모를 현재 200명에서 400명으로 키우겠다”고 밝혔다. 이와 함께 구글은 AI의 능력이 고도화하면서 인류에게 인종차별 등 각종 해악을 끼칠 가능성을 차단하기 위해 프로그램검증팀에 대한 예산 지원도 대폭 늘리기로 했다.구글이 AI 분야에 인력과 예산을 적극 투입하는 것은 AI 윤리 이슈가 정보기술(IT) 기업은 물론 각국 정부의 최대 관심사가 되고 있기 때문이다.


일부 기업들은 AI 윤리 문제로 사업을 접기도 했다. 대표적인 사례가 IBM과 아마존이다.


IBM은 지난해 6월 초 얼굴 인식 기술이 인종차별 도구로 사용될 수 있다는 판단에 따라 안면 인식 사업에서 철수한다고 밝혔다. 같은 달 아마존도 미국 경찰에 제공해온 안면 인식 소프트웨어 ‘레코그니션(Rekognition)’ 사용을 1년간 금지하기로 했다.


마이크로소프트(MS)도 지난 2016년 3월 AI 채팅 로봇 ‘테이’를 선보였다가 테이가 각종 차별 발언과 비속어를 쏟아내면서 출시 16시간 만에 서비스를 중단했다. 크로크 부사장은 “AI 기술을 개발하고 개발 이후 발생하는 일에 대해 책임을 지는 것이 사업에 이익이 된다”며 “윤리적 방법으로 일을 처리하지 않으면 브랜드에 심각한 손상을 입힌다”고 강조했다.


AI 윤리 문제는 정부 차원의 관심 분야이기도 하다.


유럽연합(EU)은 지난달 21일 무분별한 AI 사용에 제동을 걸기 위해 공공장소에서 안면 인식 카메라 사용을 금지하는 내용 등이 포함된 AI 정책안을 발표했다.


AI 기술을 실전에 활용할 계획인 미 국방부는 지난해 2월 26일 AI 기술 사용을 위한 새로운 ‘윤리원칙(ethical principles)’을 공식 채택하기도 했다.


/박성규 기자 exculpate2@sedaily.com

<저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지>