산업 IT

개선속도 간과하면 "깔린다"…올트먼, GPT-5 성능 자신하며 날린 경고

[실리콘밸리 특파원단 공동인터뷰]

개선폭 간과하고 사업 전개시 도태

그만큼 GPT 모델 한계없이 발전중

AGI 과학연구가 지속가능경제 동력


샘 올트먼 오픈AI 최고경영자(CEO)는 GPT-5 성능 개선 폭이 예상을 뛰어넘을 것이라며 이를 간과한 ‘혁신의 지연’을 경계했다. GPT의 다음 모델이 개발될 때마다 기업은 물론 일상의 여러 영역이 대체되고 사라질 수밖에 없는 만큼 더 새로운 생각이 필요하다는 것을 강조한 것이다. 올트먼 CEO가 GPT-5의 성능에 대해 이토록 자신감 넘치는 ‘신호’를 준 것 사실상 처음이다. 그는 자신과 오픈AI의 목표가 ‘범용인공지능(AGI)’ 구축임을 명확히 하며 대량의 연산 자원을 투입해 AGI 도래 시기를 앞당긴다면 인공지능(AI) 연산에 필요한 전력난 등 현실에 산적한 문제가 손쉽게 해결될 것이라는 낙관적인 관측도 내놓았다.

샘 올트먼(왼쪽) 오픈AI CEO가 14일(현지 시간) 미국 샌프란시스코 1960빌딩에서 열린 ‘K스타트업·오픈AI 매칭 데이’에 참석해 참여 스타트업들과 대화하고 있다. 사진 제공=오픈AI샘 올트먼(왼쪽) 오픈AI CEO가 14일(현지 시간) 미국 샌프란시스코 1960빌딩에서 열린 ‘K스타트업·오픈AI 매칭 데이’에 참석해 참여 스타트업들과 대화하고 있다. 사진 제공=오픈AI




14일(현지 시간) 한국 실리콘밸리 특파원단과 만난 올트먼 CEO는 “GPT-5가 언제 출시될지는 모르겠으나 고급 추론 기능에서 한 단계 더 도약하는 모델로서 큰 진전을 이룰 것”이라며 “GPT에 어떤 한계가 있는 게 아니냐는 질문이 많지만 자신 있게 ‘아니다’라고 말씀드리겠다”고 밝혔다. GPT 모델에는 한계가 없고 충분한 연산 자원이 투입된다면 인간을 뛰어넘는 AGI 구축도 무리 없다는 자신감이다.



올트먼 CEO는 GPT-5의 개선 폭을 낮잡아보고 사업을 전개하면 큰 실수가 될 것이라는 의견도 내놓았다. 개발 중인 GPT-5의 개선 폭이 상상 이상이라는 의미로 해석된다. 그는 “많은 스타트업들이 GPT-5가 크게 발전하는 것보다 약간만 발전하는 쪽이 행복하기에(사업 기회가 많기에) 발전이 더딜 것이라고 가정하지만, 큰 실수라고 생각한다”며 “이 경우 기술 지각변동이 일어날 때 흔히 발생하듯 차세대 모델에 ‘깔리게(steamrolled)’ 될 것”이라고 강조했다.

관련기사



올트먼 CEO는 ‘AGI 구축’ 외에는 관심이 없어 보였다. 블록체인과 생명공학 등 AI 외 여타 기술에도 관심이 사라졌다고 한다. 그는 “과거에는 세상에서 일어나는 모든 일에 대해 매우 넓은 그림을 가지고 있었고 좁은 관점에서는 보지 못했던 것들을 볼 수 있었다”면서도 “안타깝게도 요즘은 AI에만 완전히 집중하고 있어(AI all of the time at full tilt) 다른 관점을 갖기 힘들다”고 했다.



최근 올트먼 CEO는 글로벌 AI 인프라 혁신을 위해 뛰고 있다. 이 과정에서 ‘7조 달러 펀딩설’까지 나오며 화제가 됐다. 올트먼 CEO는 “차세대 AI 모델에 대해 생각하는 것 외 최근 가장 시간을 많이 쏟는 분야는 ‘컴퓨트(연산) 구축’으로 컴퓨팅이 미래에 가장 중요한 화폐가 될 것이라는 확신이 커지고 있다”며 “그러나 세상은 충분한 컴퓨팅을 계획하지 않았고 이 문제를 직시하지 못하고 있어 엄청난 양의 컴퓨팅을 최대한 저렴하게 구축하기 위해서는 무엇이 필요한가에 대한 고민이 크다”고 했다. AGI 구현을 위한 연산 자원 확보에 대한 고민이 크다는 의미로 해석된다.

연산 능력의 한계를 돌파해 AGI에 닿을 수만 있다면 AI 가동을 위한 전력 부족 등은 ‘부차적 문제’가 된다는 낙관론도 펼쳤다. 올트먼 CEO는 “AGI에 가장 기대하는 점은 과학적 발견으로 AI를 더 빨리 개발할수록 핵융합 발전을 현실화해 전력 문제 해결법을 더욱 빠르게 알아낼 수 있을 것이라는 점”이라며 “AGI를 통한 과학 연구가 지속 가능한 경제성장의 거의 유일한 동력이자 결정 요인이라 생각한다”고 강조했다.

데이터량이 AI 개발 속도를 따라가지 못해 데이터의 부족이 AI 발전을 저해할 수 있다는 우려도 나타냈다. 네트워크에서 점점 더 많은 작업을 수행해야 함은 물론 언젠가 우리가 데이터 장벽(data wall)에 도달할 수 있고 이를 돌파하지 못할 가능성도 존재한다는 것이다. 그는 “장기적으로 보면 사람이 생성하는 데이터가 부족해질 것”이라며 “이 때문에 더 적은 데이터로 더 많은 것을 학습할 수 있는 모델이 필요하다”고 말했다.


실리콘밸리=윤민혁 특파원
<저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지>




더보기
더보기





top버튼
팝업창 닫기
글자크기 설정
팝업창 닫기
공유하기