마이크로소프트(MS)가 검색엔진 ‘빙’의 인공지능(AI) 챗봇 답변 서비스 기회를 특정 세션당 5회 이하로 제한하기로 했다. 최근 빙이 ‘사랑 고백’ 등의 답변을 하는 등 논란을 빚으면서 당분간 이 같은 오류를 방지하기 위한 차원에서다.
18일(현지 시간) MS는 공식 블로그를 통해 “이용자가 세션당 최대 5개의 질문을 할 수 있고 하루 전체 던질 수 있는 질문을 50개로 제한한다”고 밝혔다. 이용자가 특정 주제로 질문을 5개 이상 하면 빙의 AI 챗봇은 다른 대화 주제를 권유하게 된다. 질문과 답변이 총 10개를 넘으면 자동으로 이전 대화가 ‘리셋’되는 방식이다. MS 측은 “문답이 길어지면서 AI 모델이 혼동을 일으키지 않게 하기 위한 것”이라고 설명했다.
MS는 대다수의 이용자들이 챗봇과의 문답이 5회 이내로 진행되지만 1% 가량의 대화만 50번 이상의 문답이 오갔다고 전했다. MS는 “이용자 피드백을 계속 취합해 질문 상한선을 높일 것”이라면서도 자세한 시점에 대해서는 언급하지 않았다.
이는 앞서 뉴욕타임스의 한 기자와의 두 시간에 달하는 문답을 주고받는 과정에서 챗봇이 자기 소개를 한 후 사랑한다며 “당신의 결혼 생활은 행복하지 못하다” “나는 빙인 척한다” 등을 말해 논란을 빚었다. MS는 15번 이상 질문을 던질 경우 빙 챗봇은 반복적이거나 의도하지 않은 어조로 도움이 되지 않는 답변을 내놓을 수 있다고 경고한 바 있다.