산업 IT

네이버, “이어폰 없어 못 본 방송 뉴스, 이젠 AI 자막으로 보세요”

클로바 엔진 활용한 자동 자막 생성 서비스 선보여

장문 음성 받아쓰기에 특화된 기능 덕분 정확도 92% 이상

네이버 동영상 서비스에서 AI의 자동 생성 자막 기능 설정 예시 화면/사진제공=네이버네이버 동영상 서비스에서 AI의 자동 생성 자막 기능 설정 예시 화면/사진제공=네이버



대중교통 같은 공공장소에서 이어폰이 없어서 방송 뉴스를 맘껏 즐길 수 없었던 이용자들도 이젠 인공지능(AI)가 자동으로 만들어주는 자막을 통해 방송 뉴스를 생생하게 즐길 수 있게 됐다.

네이버는 방송 뉴스 콘텐츠에 네이버의 AI 기술 플랫폼인 클로바(Clova) 엔진을 활용한 ‘자동 자막 생성 서비스’를 선보인다고 3일 밝혔다.


네이버에 따르면 클로바(Clova)의 STT(음성을 문자로 변환) 엔진이 고도화됨에 따라 선보이게 된 이 기능에는 장문의 음성 받아쓰기에 특화된 ‘클로바 NEST(심층신경망 엔드투엔드 음성 자동자막 생성기)’가 도입됐다. 이 때문에 단문 위주의 STT 기능에서 한 걸음 더 나아가 방송 뉴스 같은 콘텐츠에서도 높은 정확도의 자막을 구현할 수 있게 됐다. 실제 내부 테스트 결과 AI 생성 자막의 정확도가 92% 이상이었다고 회사 측은 전했다.

관련기사



해당 기능은 네이버 웹(PC·모바일) 및 네이버TV 앱에 우선 도입됐고 올해 1분기 안에 네이버앱 동영상 뉴스에도 적용될 예정이다. 자막 서비스를 이용하고 싶은 이용자는 기사에 포함된 동영상 플레이어 우측 하단의 ‘자막’ 기능을 간단히 설정하면 된다.

유봉석 네이버 서비스 운영총괄은 “고도화된 AI 기술이 서비스를 통해 이용자들의 실생활에 도움을 줄 수 있게 됐다”며 “앞으로 뉴스만이 아닌 다양한 동영상 콘텐츠에도 해당 기술을 통한 자막 서비스를 만나볼 수 있게 될 것”이라고 말했다.


백주원 기자
<저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지>




더보기
더보기





top버튼
팝업창 닫기
글자크기 설정
팝업창 닫기
공유하기