모바일 중앙처리장치(CPU) 시장을 장악한 ARM 최고경영자(CEO)가 2030년이면 인공지능(AI) 연산에 인도 총 소비전력 이상이 소요된다는 전망을 내놨다. 막대한 전력 소모량을 감당하기 위해서는 데이터센터에도 저전력 ARM CPU 도입이 필요하다는 의미로 해석된다.
17일(현지 시간) 르네 하스(Rene Haas·사진) ARM CEO는 블룸버그통신과 인터뷰에서 “2030년까지 글로벌 데이터센터 전력 사용량이 세계 최다 인구 국가인 인도의 소비량을 넘어설 전망”이라며 “AI가 잠재력을 완전히 발휘하기 위해서는 예상되는 에너지 사용량 증가를 막는 방법을 찾아야 한다”고 밝혔다.
AI 개발과 사용에는 막대한 연산력이 든다. 컴퓨터를 가동하기 위한 전력 뿐 아니라 연산에서 발생하는 발열을 통제하기 위한 냉각 시스템에 대한 부담도 커지고 있다. 하스 CEO는 “아직 AI 능력은 초기 단계이고 시스템 성능 향상을 위해서는 더 많은 데이터 훈련이 필요하다”며 “이 과정에서 에너지 수용 한계에 부딪힐 수 있다”고 우려했다.
하스 CEO는 전력 소모 감소를 위해서는 기존 인텔·AMD의 ‘x86’ 계열 대신 ARM CPU 채용이 필연적이라는 입장이다. 그는 “특화 반도체(ARM)를 사용하면 데이터센터 전력 사용량을 15% 줄일 수 있다”며 “사소한 효율성이라도 높이기 위해 폭넓은 돌파구가 필요하다”고 강조했다.
ARM은 저전력 CPU 설계 자산을 앞세워 모바일 CPU 시장 패권을 쥔 기업이다. 초기에는 전력 소모가 낮은 대신 성능도 낮다는 한계를 가졌으나, 최근 들어서는 성능이 높아지며 PC·서버 시장에도 진출하고 있다. 데이터센터 운용비 부담이 갈수록 커지자 전력 당 성능비가 높다는 점이 주목 받고 있는 것이다. 이에 최근에는 구글도 ARM 기반 데이터센터용 CPU ‘액시온’을 공개하기도 했다. ARM은 지난해 9월 미 나스닥 시장에서 기업공개(IPO)에 성공하기도 했다. ARM 상장은 2023년 미국 내 최대 규모 IPO로 기록됐다.