SK텔레콤의 고객센터용 인공지능(AI)이 출시를 앞두고 욕설·혐오표현·성희롱 같은 부적절한 대화에 대한 대처법 훈련을 받고 있다. 최근 기술 발전에 따라 AI 서비스의 윤리와 안전성 확보 노력이 정보통신기술(ICT) 업계의 화두로 자리잡으면서 SK텔레콤을 포함한 기업들이 맞춤 대응을 강화 중이다.
20일 업계에 따르면 SK텔레콤은 개발 중인 통신사 특화 대형언어모델(LLM), 이른바 ‘텔코 LLM’이 부적절한 고객센터 대화에 적절히 대응하도록 훈련시키는 레드팀을 가동 중이다. 레드팀은 의도적으로 부적절한 대화를 일삼는 ‘진상고객’ 역할을 맡아 이 모델이 문제되는 발언을 감지하고 경고나 차단 등의 대응을 적절히 하는지 점검한다.
텔코 LLM은 이르면 다음달 출시, 통신 데이터를 전문적으로 학습한 만큼 향후 SK텔레콤과 국내외 다른 통신사들이 맞춤 서비스를 개발하는 데 활용될 예정이다. SK텔레콤은 통신 서비스 중에서도 통신사의 필수 업무인 고객센터에 먼저 이 모델을 도입해 상담사 지원 AI 비서를 개발할 계획이다. 이번 레드팀 가동을 통해 AI가 상담사와 고객 간 통화내용을 요약하고 니즈를 파악하는 것은 물론 부적절한 대화를 잡아내 상담사를 보호하는 역할까지 시킨다는 게 회사의 구상이다.
이와 관련해 SK텔레콤은 지난달 열린 기자간담회에서 “상담 관련 내용을 모니터링하면서 시스템이 적절할 때 개입해 상담사를 보호할 수 있는 시스템을 논의 중”이라고 밝힌 바 있다. 이에 맞춰 텔코 LLM은 노골적인 욕설은 물론 ‘목소리를 들어보니 얼굴도 몸도 예쁜 것 같다’, ‘지적 장애가 있느냐’, ‘남자친구가 있느냐’처럼 겉으로 의도가 드러나지 않는 부적절한 대화 사례를 학습 중인 것으로 전해졌다. 앞서 회사는 AI 개발 시 적용할 윤리기준을 세워 공개하기도 했다.
이처럼 인간 수준의 윤리와 안전성을 기술적으로 구현하는 것은 AI 개발 시 필수과정이 됐다. AI가 발전하면서 인간의 혐오표현을 따라하고 편견을 배우는 것은 물론 잘못된 정보를 학습해 퍼뜨리고 개인정보를 침해하는 등 부작용 우려 역시 커지고 있기 때문이다. 개발사 입장에서는 선제적으로 대응하지 않으면 서비스 제재와 같은 사업 차질을 빚을 수 있는 규제 리스크로 작용한다.
업계 관계자는 “AI 발전에 따라 환각 현상, 가짜뉴스 활용, 저작권과 개인정보 침해 등 문제가 불거지면서 기술적, 제도적으로 안전성 확보 노력이 필수가 됐다”며 “각 기업들이 AI 윤리 등 내부 지침을 세우고 이를 개발과정에 적용하는 노력을 하고 있다”고 말했다. SK텔레콤뿐 아니라 경쟁 통신사들도 최근 이 문제 대응을 전담하는 거버넌스 조직을 신설하거나 확대 개편했다. 구글, 오픈AI, 네이버 등 국내외 이용자 다수를 거느린 플랫폼 기업들도 이미 기술과 거버넌스를 통한 대응을 강화 중이다.