중국의 인공지능(AI) 스타트업 딥시크가 컴퓨팅 자원과 에너지 소모를 획기적으로 줄이면서도 확장성을 높인 새로운 AI 학습법을 공개했다. 미국의 제재로 엔비디아 최신 칩에 대한 접근이 차단된 상황에서 자력으로 경쟁하겠다는 중국 AI 업계의 의지를 보여주는 행보로 풀이된다.
2일(현지 시간) 블룸버그통신에 따르면 딥시크는 최근 창업자 량원펑이 공동 저자로 참여한 논문에서 '매니폴드 제약 초연결(Manifold-Constrained Hyper-Connections)'이라는 새로운 방법론을 발표했다. 이 기술은 고급 AI 모델의 학습 과정에서 발생하는 불안정성을 해소하고 인프라 최적화를 통해 대규모 AI 시스템 구축에 필요한 비용과 에너지를 절감하도록 설계됐다.
업계에서는 이번 논문 발표를 조만간 출시될 딥시크의 차세대 플래그십 모델 등장을 알리는 신호탄으로 해석하고 있다. 딥시크는 과거에도 주요 모델 출시 전 논문을 먼저 공개해 왔다. 이 회사는 1년 전 실리콘밸리 경쟁사들보다 훨씬 적은 비용으로 고성능 추론 모델 'R1'을 개발해 글로벌 AI 업계에 충격을 안겼다. 시장에서는 이번 논문 발표와 더불어 오는 2월 춘절 연휴 무렵 공개될 것으로 예상되는 후속작인 'R2' 모델에 대한 기대감이 커지고 있다.
중국 AI 스타트업들은 미국의 첨단 반도체 수출 제재로 AI 개발과 운영에 필수인 엔비디아 최신 칩에 접근할 수 없는 상황이다. 이런 제약은 역설적으로 중국 연구자들로 하여금 독자적인 기술 개발을 촉진하는 배경이 되고 있다는 분석이다.
딥시크가 오픈소스 플랫폼에 공개한 논문에는 량원펑을 포함해 19명의 저자가 참여했다. 연구팀은 바이트댄스의 2024년 초연결 아키텍처 연구를 기반으로 30억~270억 개 매개 변수(parameters) 규모의 모델로 테스트를 진행했다.
로버트 리 블룸버그 인텔리전스의 애널리스트는 "향후 수개월 내 출시될 딥시크 R2 모델은 구글의 최근 약진에도 불구하고 글로벌 AI 시장을 다시 한번 뒤흔들 잠재력이 있다"고 분석했다.
