네이버, SK텔레콤, KT, LG 등 기업들이 개발한 초거대 인공지능(AI) 모델의 신뢰성을 평가하는 시스템이 조만간 마련된다. 정부는 기업들의 참여를 지원함으로써 챗GPT 등장을 계기로 떠오른 AI 윤리와 신뢰성 문제에 선제적으로 대응할 계획이다.
과학기술정보통신부는 25일 서울 강서구 LG사이언스파크에서 개인정보보호위원회와 네이버, SK텔레콤, KT, 카카오, LG AI 연구원 등 초거대AI 개발 기업들이 참석한 ‘제4차 AI 최고위 전략대화’에서 ‘AI 윤리·신뢰성 확보 추진계획’을 발표했다.
AI 최고위 전략대화는 정부와 민간이 반기마다 모여 국가 AI 경쟁력 강화 방안을 논의하는 협의체로, 이번에는 AI 윤리와 신뢰성에 대한 계획이 마련됐다. 초거대AI는 슈퍼컴퓨터를 활용해 연산속도를 크게 향상시킨 모델로, 최근에는 다량의 데이터 학습을 통해 인간 수준의 대화나 그림 그리기 등 새로운 결과물 도출이 가능한 생성형 AI 서비스를 구현하는 데 주로 쓰인다. 다만 이런 AI 서비스는 개인정보를 침해하거나 잘못된 정보를 확산하는 부작용이 있는 만큼 정부가 나서서 대응하겠다는 것이다.
정부는 AI 윤리와 신뢰성 지표인 ‘AI 민주적 가치지수’에서 1위를 유지하고 지난해 11위였던 옥스퍼드 인사이트의 ‘정부 AI거버넌스와 윤리’ 순위를 5위로 끌어올리겠다는 목표를 제시했다. 이를 실현하기 위해 ‘민간 자율 AI 윤리·신뢰성 확보 지원’, ‘세계를 선도하는 AI 윤리·신뢰성 기술·제도적 기반 마련’, ‘사회 전반 책임 있는 AI 의식 확산’ 등 3대 추진과제를 마련했다.
특히 ‘세계를 선도하는 AI 윤리·신뢰성 기술·제도적 기반 마련’ 과제에는 올해 12월부터 생성형 AI 기업을 대상으로 초거대AI 모델의 신뢰성을 평가하는 시스템 마련 계획이 포함됐다. 인증전문기관을 통해 기업들이 자발적으로 검·인증을 받고 정부가 기업들의 참여를 지원하는 방식으로 시행될 예정이다. 이를 위해 편향적이거나 차별적인 콘텐츠를 차단하는 ‘공평성’, AI가 잘못된 정보를 도출하는 환각 현상을 막고 정보 출처를 관리하는 ‘사실 정확성’를 포함해 ‘출처 적정성’과 ‘활용 적합성’ 등 신뢰성 측정을 위한 데이터를 다음달까지 구축한다.
정부는 다음달부터 AI 생성물을 표시하는 워터마크 도입을 검토 중이다. 워터마크 도입은 우선 기업들에게 권고하는 방식으로 시행하고 향후 단계적으로 의무화하는 방안을 추진한다. 내년부터는 ‘고위험 AI’를 판단하는 기준을 마련하는 판현, AI의 편향성·불투명성·오작동 등에 대응하기 위한 기술 개발도 2027년까지 220억 원 규모로 이뤄질 예정이다.
‘민간 자율 AI 윤리·신뢰성 확보 지원’을 위해 정부는 다음달부터 생성형 AI 서비스 분야별 가이드라인을 마련하거나 확대한다. 정부는 AI 위험요인을 진단하고 개선방안을 제공하는 컨설팅, 신뢰성이 우수한 AI에 대한 시상, 국내·국제표준 제정 등 관련 제도 도입도 추진하기로 했다. ‘사회 전반 책임 있는 AI 의식 확산’을 위해 초·중·고교에 AI 윤리교육을 시범적으로 시행하고 AI 윤리의 사회적 논의를 위한 포럼과 소통채널을 마련할 계획이다.
이종호 과기정통부 장관은 “민간의 자율 AI 신뢰성 검·인증 지원을 비롯한 AI 윤리 생태계 기반을 조성하고 적합한 규제 체계를 정립해가는 데 힘쓰겠다”며 “관계부처와 함께 정책방안을 보완해나가겠다”고 말했다.