데이터센터에 DPU·HBM 적용…MS, AI 혁신 속도낸다

[이그나이트 2024]
클라우드 '애저' 자체 칩 사용
AMD 기반 가상머신도 소개


마이크로소프트(MS)가 클라우드 하드웨어와 오피스·윈도 등 소프트웨어 전반의 인공지능(AI) 혁신에 속도를 낸다. 데이터센터에 자체 제작한 데이터처리장치(DPU)와 고대역폭메모리(HBM)를 적용한 가상화 지원을 통해 AI 전환을 선도하는 한편 소프트웨어에서는 ‘코파일럿’ AI 통합을 가속화하겠다는 전략이다.



사진 제공=MS

19일(현지 시간) MS는 연례 최대 개발자 콘퍼런스 ‘이그나이트 2024’를 열고 신형 DPU·가상머신과 AI 에이전트 최신 적용 방안 등을 소개했다. MS 클라우드 ‘애저’에 자체 설계 칩 ‘애저 부스트 DPU’가 적용된 점이 눈길을 끈다. DPU는 데이터 입출력을 보조하는 칩이다. AI 연산량 폭증으로 데이터 통로 역할을 하는 대역폭이 한계에 이르면서 데이터 전송만 전담 처리할 DPU가 주목받는 최신 반도체 트렌드를 반영한 결과다. 앞서 IBM도 ‘텔럼2’ 칩셋에 DPU를 내장하며 테크계의 주목을 받았다.


그간 아마존·MS·구글 등 주요 클라우드 업체는 ARM 기반 저전력 중앙처리장치(CPU)와 AI 가속기 등을 자체 설계해 사용해왔다. DPU를 소개한 것은 MS가 처음이다. MS는 “DPU가 기존 마이아(Maia) CPU와 AI 가속기에 합류하며 저장장치, 네트워크, AI 가속 등 클라우드 전반에 걸쳐 효율성을 제공하게 됐다”고 설명했다.


HBM을 적용한 AMD 기반 가상머신 ‘HBv5’도 소개했다. 가상머신이란 하나의 슈퍼컴퓨터를 가상의 PC 여러 대로 나눠 사용하는 서비스를 뜻한다. 애저 맞춤형 AMD 에픽 CPU와 함께 HBM을 적극 적용해 경쟁 서비스 대비 최대 8배 높은 성능을 제공하겠다는 전략이다. MS는 “대규모 고성능 하드웨어를 효율적으로 냉각하기 위한 액체 냉각 열교환 장치도 적용한다”고 밝혔다.


지난달 영국 런던에서 공개했던 AI 에이전트도 기능이 추가됐다. 엑셀·파워포인트·팀즈 등에 AI 비서가 녹아들어 업무 자동화를 돕는다. 자동 번역과 필사 등 업무 지원 기능도 강화했다. 개인 사용자들을 위한 희소식도 있다. 윈도 운영체제(OS) 검색이 신경망처리장치(NPU)를 만나 AI로 재탄생했다. 정확한 파일 이름과 내용을 모르더라도 챗봇과 대화하듯 내용을 설명해 찾아내는 방식이다.


기업들의 생성형 AI 사용 비중은 지난해 55%에서 올해 75%로 급증했다. MS는 기업이 생성형 AI에 1달러를 투자할 때마다 3.7달러의 투자수익률(ROI)을 기록하고 있다며 기업의 AI 혁신을 지원하겠다고 강조했다. MS는 “오늘의 ROI가 곧 내일의 경쟁 우위”라며 “향후 2년간 산업적 AI 사용 사례에 방점을 찍겠다”고 자신했다.


<저작권자 ⓒ 서울경제, 무단 전재 및 재배포 금지>