최태원·젠슨황 “HBM 공급 서두르자”…엔비디아와 밀월 강화 [SK AI 서밋 2024]

SK하이닉스, HBM4 내년 하반기 공급
젠슨 황 "공격적 제품 출시 계획 실현해달라"
SKT, 엔비디아 칩 탑재 AIDC 내달 개소

SK그룹은 인공지능(AI) 사업을 본격화하며 특히 세계 최대 AI 반도체 기업인 엔비디아와의 협력을 강화한다. SK하이닉스는 엔비디아의 차세대 AI 반도체용 부품을 조기에 공급하는 한편 SK텔레콤은 엔비디아 최신 칩을 국내에서 가장 먼저 수급해 AI 데이터센터라는 새로운 시장을 선점할 계획이다.



젠슨 황 엔비디아 최고경영자(CEO)가 4일 서울 강남구 코엑스에서 열린 'SK AI 서밋'에서 SK하이닉스와의 고대역폭 메모리(HBM) 파트너십에 대해 이야기하고 있다. 연합뉴스

최태원 SK그룹 회장은 4일 서울 강남구 코엑스에서 열린 ‘SK AI 서밋’ 기조연설을 통해 “지난번 젠슨 황 엔비디아 최고경영자(CEO)를 만났을 때 (그가) ‘고대역폭메모리(HBM)4의 공급 일정을 6개월 당겨달라’고 요청했다”며 “이에 그렇게 하겠다고 답했다”고 밝혔다. SK하이닉스도 최근 해당 제품의 공급 일정을 2026년에서 내년 하반기로 앞당기기로 했다.


황 CEO도 행사에 영상 대담으로 참석해 HBM 공급사로서 SK하이닉스의 역할을 강조했다. 그는 “현재 HBM 기술 개발과 제품 출시 속도는 매우 훌륭하지만 여전히 AI는 더 높은 성능의 메모리가 필요하다”며 “SK하이닉스의 공격적인 제품 출시 계획이 빠르게 실현돼야 한다”고 말했다. 황 CEO는 “양사 협업으로 더 적은 메모리로 더 정확한 연산을 수행하고 동시에 더 높은 에너지 효율성을 달성했다”며 “컴퓨팅 처리 능력은 비약적으로 향상됐고 이는 정말 놀라운 일”이라고 덧붙였다.


HBM은 엔디비아가 적극적으로 수급하며 AI 반도체 밸류체인의 핵심 부품으로 부상했다. HBM은 메모리 반도체인 D램 여러 개를 수직으로 쌓은 제품이다. 데이터가 오가는 도로로 비유되는 대역폭을 크게 늘려 AI와 같은 대규모 연산이 가능하다. 엔비디아는 그래픽처리장치(GPU)에 HBM을 결합해 연산 성능을 크게 높인 AI 반도체인 AI 가속기를 만들고 있다. SK하이닉스는 HBM3에 이어 HBM4를 엔비디아의 차세대 AI 가속기 ‘루빈’용으로 납품하기로 했다.


SK텔레콤도 엔비디아 협력을 바탕으로 AI 데이터센터 사업을 시작한다. 다음달 AI 기업이 모인 판교에 엔비디아 최신 칩을 탑재한 AI 데이터센터 테스트베드(시범 시설)를 구축한다. 이를 시작으로 국내 지역 거점에 100메가와트(MW·100만 W)급의 대규모 AI 데이터센터를 짓고 향후 규모를 10배 이상인 기가와트(GW·10억 W)급으로 키워나갈 방침이다. AI 데이터센터는 AI를 구동할 인프라를 구축할 수 없는 기업들에게 연산 자원을 빌려주는 기업간거래(B2B) 사업이다. 일반 데이터센터보다 연산량이 많아 액침 냉각과 같은 최신 발열 제어 기술도 들어갔다.


SK텔레콤은 AI 데이터센터를 활용한 서비스도 다음달 출시한다. 고객사가 사스(SaaS)처럼 클라우드 구독 서비스 형태로 GPU를 쓸 수 있도록 하는 ‘GPUaaS’다. 이 역시 미국 협력사 람다를 통해 엔비디아 칩을 공급받는다. 내년 3월에는 최신 AI 가속기 ‘H200’을 국내 최초로 도입해 서비스를 고도화한다. 유영상 SK텔레콤 대표는 “지금까지 통신 인프라는 연결성 경쟁, 즉 속도와 용량 싸움이었으나 이제는 네트워크 진화의 패러다임이 변화해야 한다”며 “향후 6세대 이동통신(6G)은 통신과 AI가 융합된 차세대 AI 인프라로 진화할 것”이라고 말했다.


<저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지>