순다르 피차이(사진) 구글 최고경영자(CEO)가 직원들이 인공지능(AI)의 군사적 이용을 반대하는 캠페인을 대대적으로 진행하자 AI 소프트웨어를 무기나 부당한 감시에 사용하지 않겠다고 공언했다.
7일(현지시간) AFP·로이터통신 등에 따르면 피차이 CEO는 회사의 AI 정책을 설명하는 블로그에서 “무기에 사용하려고 AI를 개발하는 것이 아님을 분명히 하고 싶다”고 밝혔다고 보도했다.
그는 구글이 AI를 사용하는 것은 “사람들의 시급한 문제 해결을 돕기 위해서”라며 화재 예측이나 농가 지원, 질병 분석 등을 예로 들었다.
또 “AI 프로그램은 사회에 도움이 되고 불공정한 편견 조장을 막기 위한 애플리케이션을 위해 설계된 것”이라며 “전반적으로 피해를 유발하거나 일으킬 가능성이 있는 어떤 기술도 사용하지 않겠다”고 입장을 밝혔다.
피차이 CEO는 정부 프로젝트도 인터넷 보안이나 군사 모집, 수색·구조 등의 분야에서 수주하겠다고 밝혔다. 또 “강력한 기술인 만큼 사용에서도 강력한 문제 제기가 있을 수 있다”며 “AI를 어떻게 개발해 사용하느냐 하는 문제는 미래에 상당한 영향을 미치며 AI 분야의 선도자로 올바르게 해야 한다는 깊은 책임감을 느낀다”고 덧붙였다.
그동안 AI 기술이 전쟁 등에 활용될 수 있다는 점에서 학계와 구글 직원들 사이에서는 반대 목소리가 나왔다. 4,600명이 넘는 구글 직원들이 국방부와의 계약 취소 청원에 서명했으며 최근 몇 주 동안 최소 13명이 이 문제에 우려를 표하며 퇴사 의사를 밝혔다. 로이터통신이 입수한 e메일에 따르면 이미 구글 이사회 소속 위원 9명이 AI 규정에 관한 초안을 마련했다. 초안에는 신체적 부상 또는 국제적으로 인정되는 규칙이나 인권 기준에 위배되는 감시활동과 관련이 있는 AI 애플리케이션 개발은 추진하지 않는다는 내용이 포함됐다.
/박현욱기자 hwpark@sedaily.com