구글과 인텔이 ‘효율성’에 초점을 맞춘 인공지능(AI) 칩셋을 나란히 공개했다. 개발과 연산에 소요되는 막대한 전력은 AI 확산을 막는 주범으로 꼽힌다. 이에 효율 높은 AI 칩 도입으로 비용을 절감할 뿐 아니라 지속 가능한 AI 개발 토대를 확보하겠다는 전략이다.
|
9일(현지 시간) 구글과 인텔은 각각 구글 클라우드 넥스트 2024와 인텔 비전 2024 행사를 열고 신형 중앙처리장치(CPU)와 AI 가속기(NPU·GPU)를 선보였다.
구글은 첫 ARM 기반 서버 CPU인 ‘액시온’을 공개했다. 구글은 ARM 기반 모바일AP ‘텐서’ 시리즈를 설계해왔으나 서버 용 자체 ARM CPU는 처음이다. ARM CPU는 높은 전력 대 성능비로 최근 데이터센터 적용 사례가 늘고 있다. 구글은 액시온이 서버·PC용 주류 CPU인 x86계열 현 세대 제품보다 최대 50% 빠르고 에너지 효율이 60% 높다고 밝혔다. 구글어스엔진·유튜브 광고 등 자체 서비스에 액시온을 적용 한 후 외부에도 액시온 기반 클라우드를 공급할 계획이다.
구글은 지난해 말 공개한 AI 가속기 TPU v5p도 실제 적용됐음을 알렸다. TPU v5p는 8960개 칩이 한데 묶인 ‘팟(Pod)’으로 제공된다. 한 팟 기준 전 세대보다 4배 빠르고 달러 당 성능을 기준으로 한 운용 효율은 2.1배 높다.
구글이 반도체 설계 역량을 확대하는 배경에는 AI 모델부터 반도체까지 고객사가 원하는 모든 종류의 인프라를 제공하겠다는 생태계 확장 철학이 담겨 있다. 이날 서울경제와 만난 윌 그래니스 구글클라우드 최고기술책임자(CTO)는 “구글의 ‘북국성(지향점)’은 모든 사람이 AI를 최대한 활용하는 것”이라며 “서비스 생산 단계로 넘어 갈수록 효율성과 인프라가 클라우드 플랫폼 선택 주요 고려 사항이 된다"고 설명했다.
|
인텔도 지난해 공개한 가우디3 GPU를 올 2분기 중 델·HPE·레노버·슈퍼마이크로 등 주요 서버 제조사들에 납품한다고 밝혔다. 가우디3는 엔비디아 H100보다 추론 성능이 최대 50% 높다. 라마 70B와 팔콘 180B 등 대형 AI 모델에서 전력 효율도 40% 더 좋다. 팻 겔싱어 인텔 최고경영자(CEO)는 “하나의 대기업(Big Player)이 시스템을 장악하는데 질리지 않았느냐”며 가우디3가 엔비디아의 ‘대안’이 될 수 있음을 강조하기도 했다. 행사에서는 가우디를 사용한 AI 개발 사례로 네이버 하이퍼클로바X가 소개되기도 했다.
인텔은 서버용 CPU 제온6, 코드명 ‘시에라 포레스트’도 공개했다. 제온6는 저전력 고효율 ‘E’ 버전인 시에라 포레스트와 전력 소모가 큰 대신 성능이 더 높은 ‘P’ 버전 ‘그래나이트 래피즈’로 구분된다. 이날 인텔은 고효율 버전인 시에라 포레스트를 2분기 내 우선 출시하겠다고 밝혔다. CPU 최강자 인텔까지 고성능보다 고효율을 출시 우선순위에 둔 것이다. 시에라 포레스트는 인텔 3나노 공정에서 제조된다. 전 세대 제온 CPU 대비 전력 당 성능이 2.4배 높고 같은 공간에 2.6배 더 많은 칩셋을 넣을 수 있다. 인텔은 “구형 시스템을 약 3대 1 비율로 교체할 수 있어 에너지 소비를 대폭 낮출 수 있다”고 설명했다.