[단독] "AI 안전성 확보"…LGU+도 관련 조직 강화

AI·DATA 거버넌스 팀 확장
'익시젠' 서비스 이슈 선제대응
SKT도 상반기 윤리기준 확립
국내 첫 정책대학원도 9월 개원

LG유플러스 직원들이 자사가 개발한 인공지능 ‘익시’를 활용해 이미지 생성 기능을 테스트하고 있다. 사진 제공=LG유플러스

국내 정보통신기술(ICT) 기업들이 인공지능(AI) 기술 개발과 동시에 안전성 확보를 위해 잇따라 관련 조직을 신설하거나 강화하고 있다. 전세계적으로 AI의 윤리적인 사용 문제에 대한 중요성이 커지면서 자사 거대언어모델(LLM) 개발과 사업화 과정에서 신뢰성을 높인다는 취지다.


22일 업계에 따르면 LG유플러스는 올해 초 AI 업무 경쟁력 강화를 위한 조직 개편을 단행했다. 최고데이터책임자(CDO) 산하에 있던 조직인 ‘데이터(DATA) 거버넌스’ 팀을 ‘AI·DATA 거버넌스’ 팀으로 확대한 게 주요 골자다. LG유플러스 측은 “AI 안전성 등 관련 사업의 중요성이 커져 이를 대비하기 위한 조치”라고 설명했다.


LG유플러스는 올해 통신 맞춤형 AI '익시젠'(ixi-GEN)을 활용해 다양한 서비스를 선보일 예정인데, 이 과정에서 발생할 수 있는 각종 AI 관련 이슈를 대비하기 위한 것으로 보인다.




올 상반기 LLM '코지피티(KoGPT) 2.0'을 선보일 예정인 카카오도 AI 안전성을 높이기 위한 작업에 분주하다. 카카오는 지난해 3월 ‘책임있는 AI 기술 적용을 위한 가이드라인’을 제정했다. 현재 이 가이드라인을 기반으로 AI 신뢰성을 높이기 위한 자가 점검 도구(체크 리스트)를 제작 중이다. 아울러 격주에 한번씩 ‘AI 정책지원 테스크포스(TF)’ 실무회의를 열고 AI 서비스 개발 단계에서 필요한 개인정보와 법적 쟁점, AI 윤리 등에 대한 가이드라인을 관련 부서에 제공하고 있다.


SK텔레콤도 이르면 올 상반기까지 AI 윤리 기준을 만드는 등 AI 거버넌스 프로세스 수립을 마무리할 계획이다. KT는 AI 연구개발(R&D) 조직 ‘AI2X랩’에서 AI 윤리와 안정성 등을 관리하고 있다.


이처럼 IT업계가 AI 기술 개발과 안전성 강화를 병행하고 나선 것은 전세계적으로 윤리적인 AI 개발이 필요하다는 목소리가 커지고 있기 때문이다. 특히 생성형 AI의 한계로 지적되고 있는 ‘환각(할루시네이션)' 현상이나 편향성, 학습 저작권 논란 등은 AI 개발과 맞물려 심각한 문제로 급부상한 상태다. 생성형 AI 개발사일수록 관련 이슈를 해결해야 AI 사업도 확대할 수 있는 셈이다. 올 초 네이버가 국내 ICT 업계 최초로 최고경영자(CEO) 직속으로 AI 안전성 연구를 전담하는 조직인 ‘퓨처 AI센터’을 신설한 것도 이같은 판단이 작용했기 때문이다. ★본지 1월 4일자 14면 참조


최수연 네이버 대표는 최근 과학기술정보통신부 주최로 열린 ‘제5차 AI 최고위 전략대화’에서 "AI가 어떻게 학습했는지에 따라 첨예한 갈등이 있는 질문에 대한 답변이 다를 것이며 결국 사람의 행동과 생각에 영향을 미칠 것”이라며 “다양성의 가치를 핵심으로 여기는 네이버가 AI가 투자하는 이유는 이 때문”이라고 강조했다.


학계도 AI의 안전한 이용을 위한 거버넌스 구축에 동참하고 나섰다. 광주과학기술원(GIST)은 오는 9월 국내 최초로 ‘AI정책전략대학원’을 개원한다. 대학원에서는 안전한 AI 사용을 위한 가이드라인을 마련하고 AI 인재를 양성한다는 목표다. 임기철 GIST 총장은 “AI 기술의 성장 이면에는 윤리와 규제 이슈가 있다"면서 “대학원에서 AI 기술의 활용에 대한 전략적인 접근 방법 등을 공유할 것”이라고 말했다.


<저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지>