성능개선 한계…정체기 맞은 생성형 AI

오픈AI 차기모델 성능 향상 둔화
추론 등 서비스 다양화로 활로 모색



인터넷·모바일 혁명에 이어 ‘챗GPT’로 촉발된 생성형 인공지능(AI) 시대가 도래한 가운데 최근 생성형 AI 발전 속도가 눈에 띄게 느려지고 있다. 과거 그래픽처리장치(GPU) 등 연산 자원을 투입하기만 하면 엄청난 속도로 개선되던 성능이 점차 한계에 봉착했고 신형 AI 출시 주기는 갈수록 길어지고 있다는 분석이 나온다. 대규모언어모델(LLM)의 기틀이 된 트랜스포머 구조가 한계에 이르렀다는 지적 속에 주요 AI 개발사들은 추론·에이전트 등 대안을 통해 반전을 꾀하고 있다.


17일 실리콘밸리 테크계에 따르면 AI 연구자들을 중심으로 그간 생성형 AI에 통용되던 ‘규모(Scaling)의 법칙’이 무너졌다는 분석이 쏟아지고 있다. 테크 전문 매체 디인포메이션은 “오픈AI가 GPT-5로 알려진 ‘오라이온(Orion)’을 훈련하는 과정에서 과거보다 성능 개선 폭이 적어 고심 중”이라며 “AI 성장의 핵심 가정인 ‘규모의 법칙’이 시험받고 있다”고 전망했다.


생성형 AI 혁명을 이끌어 온 오픈AI의 GPT 모델 출시 주기는 갈수록 길어지고 있다. 2018년 6월 GPT-1이 출시된 뒤 2019년 2월 GPT-2, 2020년 5월 GPT-3가 출시되기까지는 1년 안팎 걸리는 데 그쳤으나 이후 2022년 3월 GPT-3.5, 2023년 3월 GPT-4가 출시된 후에는 1년 반 넘게 주요 버전 업그레이드가 이뤄지지 않고 있다. 테크계는 단순한 AI 성능 개선을 넘어선 추론·챗봇·경량화 등 ‘서비스 다양화’로 품질을 개선하는 데 주력하고 있다. 아울러 ‘상태공간모델’과 ‘액체신경망’ 등 생성형 AI 기본 알고리즘인 ‘트랜스포머’ 구조를 벗어난 새로운 AI 모델도 속속 제안되고 있다.


<저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지>