반도체 기업 엔비디아, AI '헛소리' 해결 나선 이유는?[AI토피아]

사실과 다른 이야기 지어내는 '환각' 현상
AI 확산 가로막으며 생태계 성장도 저해
AI 플랫폼 보유·칩 독점 엔비디아에 골칫거리
오픈AI도 개인정보 유출 논란 해소 움직임


챗GPT처럼 폭발적으로 성장한 생성형 인공지능(AI)의 단점을 보완하기 위한 대책이 등장하고 있다. 엔비디아는 생성형 AI가 사실과 다른 이야기를 지어내 잘못된 정보를 확산한다는 논란을 해소하는데 힘을 쏟고 있다. 챗GPT 개발사 오픈AI는 개인정보 침해 우려를 해소하기 위한 해결책을 내놓고 있다. 생성형 AI의 문제점이 산업의 성장을 가로막으며 이들 기업의 수익성도 저해할 조짐이 나타나자 문제 해결에 나선 것으로 풀이된다.


29일 정보기술(IT) 업계에 따르면 엔비디아는 25일(현지시간) 생성형 AI 챗봇이 사실과 다른 이야기를 지어내는 '환각'(Hallucination)을 차단하고 오답을 줄이는 소프트웨어 '네모 가드레일(NeMo Guardrails)'을 개발했다고 밝혔다.


환각은 순다르 피차이 구글 및 모회사 알파벳 최고경영자(CEO)가 지적할 정도로 명적인 문제로 부각되고 있는 상황이다. 피차이 CEO는 16일(현지시간) 미국 CBS 방송과의 인터뷰에서 "(AI가 제공할 수 있는) 허위 정보와 가짜 뉴스, 이미지 문제가 훨씬 더 커지고 해를 끼칠 수 있다"고 우려했다. 최근 챗GPT가 미국 한 교수를 범죄자로 몰았다는 논란이 발생하기도 했다. 5일(현지시간) 워싱턴포스트(WP)에 따르면 챗GPT는 2018년 WP의 기사를 근거로 삼으며 조너던 털리 조지타운대 로스쿨 교수가 성적으로 부적절한 발언을 했다고 밝혔지만 챗GPT가 거짓말한 것으로 드러났다. 관련 기사는 찾아볼 수 없었고 털리는 조지타운대 교수도 아니었다. 챗GPT가 자신의 주장을 뒷받침하기 위해 근거자료를 위조했다는 것이다.


네모 가드레일은 이 문제를 해결하는데 힘을 보탤 것으로 기대된다. AI 모델이 사실과 다른 것을 말하지 않도록 지원하기 때문이다. 다른 언어 모델에게 사실 확인을 요청해 '환각'을 감지하며, 다른 모델이 일치하는 답을 찾지 못하면 '모르겠다'고 답한다. 또 특정 주제에 관해서만 이야기하도록 강제할 수 있고 유해한 명령을 실행하지 못하도록 차단한다. 조나단 코언 엔비디아 응용 연구 부문 부사장은 "누군가 한 주제에 관해 이야기하면 이 방식으로만 답하라고 스크립트를 작성할 수 있다"고 설명했다. '네모 가드레일'은 오픈 소스로 엔비디아 서비스를 통해 제공된다.



이미지투데이

엔비디아는 '환각' 문제가 AI 시장의 성장을 가로막자 팔을 걷어붙인 것으로 보인다. AI가 틀린 내용을 진짜처럼 술술 말하는 사례가 연이어 발생하며 이용자들의 불신이 커진 것은 엔비디아에게도 악재다. 엔비디아가 힘을 쏟고 있는 AI 사업의 성장성이 둔화할 수 있기 때문이다. 엔비디아는 수익성 AI 소프트웨어 플랫폼인 쿠다(CUDA)를 보유했고 트레이닝용 칩을 생산해 제공하고 있다. AI 시장의 성장세가 꺾이면 수익성이 저하된다. 엔비디아가 직접 나설 수밖에 없는 상황이다.


챗GPT로 생성형AI 신드롬을 만든 오픈AI도 문제 해결에 나섰다. 오픈AI는 챗GPT가 개인정보를 유출한다는 논란을 잠재우려하고 있다. 최근 오픈AI는 사용자가 챗GPT와의 대화를 학습에 활용하지 않도록 선택할 수 있는 '채팅 기록 비활성화' 장치를 도입했다.


오픈AI는 기업향 구독 모델인 ‘챗GPT 비즈니스’도 개발하고 있다. 이 서비스 사용자가 입력하는 데이터는 AI의 학습에 사용되지 않는다. 비즈니스 모델은 수개월 내 정식 출시될 예정이다. 최근 일부 챗GPT 사용자들의 질문 내용과 개인 정보가 유출되며 생긴 논란을 해소하겠다는 취지로 보인다.


<저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지>