Offcanvas

AI / 데이터센터 / 서버

MS, 자체 데이터센터 위한 마이아 AI 칩, 애저 코발트 칩 발표

2023.11.17 Anirban Ghoshal  |  Network World
업계 전문가들은 AWS나 구글, 오라클 등의 다른 맞춤형 AI 칩처럼 마이크로소프트의 새로운 칩이 엔비디아부터 AMD, 인텔과 같은 전문 칩 업체와 치열한 경쟁을 벌일 것으로 예상한다.

자체 칩을 개발하고 있다는 소문이 몇 달간 이어진 끝에, 마이크로소프트가 연례 이그나이트(Ignite) 컨퍼런스에서 생성형 AI용 마이아 AI 액셀러레이터(Maia AI Accelerator)와 클라우드 워크로드용 애저 코발트 CPU(Azure Cobalt CPU)를 공개했다. 
 
ⓒ Microsoft

마이크로소프트에 따르면, 새로운 마이아 100 AI 액셀러레이터는 오픈AI의 모델 학습 및 추론 워크로드를 포함해 애저 클라우드에서 실행되는 자사의 가장 무거운 내부 AI 워크로드 중 일부를 구동한다. 오픈AI CEO인 샘 알트먼은 보도자료를 통해 맞춤형 마이아 칩을 통해 더 유능한 모델을 훈련할 수 있는 길을 열었으며, 최종 사용자에게 더 낮은 비용을 가져다줄 것이라고 주장했다.

업계 애널리스트들은 이런 평가에 동의했다. 반도체 리서치 및 컨설팅 회사인 세미애널리시스의 수석 애널리스트 딜런 파텔은 "마이크로소프트는 엔비디아의 칩과 비교해 와트당 성능 및 달러당 성능을 개선하기 위해 자체 AI 프로세서를 개발하고 있다"라며, 비용 절감은 궁극적으로 애저 클라우드의 AI 및 생셩형 AI 제품을 구독하는 고객에게 이어질 것이라고 말했다.

Arm 아키텍처를 기반으로 하는 애저 코발트 100 CPU는 상용 AMD 및 인텔 CPU와 비교해 인프라의 에너지 효율을 높이기 위한 마이크로소프트의 시도이다. 파텔은 코발트 100 CPU를 통해 마이크로소프트는 소비되는 에너지 단위당 더 많은 컴퓨팅 성능을 생성할 수 있으며, 이 칩은 데이터센터 전체에서 사용될 것이라고 덧붙였다.

하드웨어 제품 개발 담당 부사장인 웨스 맥컬러는 "마이크로소프트는 실리콘의 트랜지스터를 가장 효율적으로 활용하고 있다. 모든 데이터센터의 서버에서 이런 효율성 향상을 곱하면 꽤 큰 숫자가 된다”고 밝혔다.

특히 코발트 CPU가 퍼블릭 클라우드 비용이 증가할 것으로 예상되는 시점에 발표됐다는 사실도 중요하다. 가트너의 보고서에 따르면, 퍼블릭 클라우드 서비스에 대한 최종 사용자의 지출은 2023년 5,636억 달러에서 2024년 총 6,788억 달러로 20.4% 증가할 것으로 예상된다.
 

마이아 100, 수랭식 냉각으로 발열 해결

마이크로소프트는 데이터센터 내부에 마이아 100 가속기 칩을 수용하기 위해 데이터센터 랙을 위한 새로운 디자인을 만들어야 했다. 기존 랙보다 더 넓어진 랙은 전원 및 네트워킹 케이블을 위한 충분한 공간을 확보하기 위해 확장했다. 특히 집약적인 AI 및 생성형 AI 워크로드로 인해 칩의 온도를 관리하기 위해 기존의 공랭식 냉각 방식과는 다른 별도의 액체 냉각 솔루션을 설계해야 했다.

액체 냉각을 구현하기 위해 마이크로소프트는 마이아 100 칩 랙 옆에 장착할 수 있는 '사이드킥'을 개발했는데, 마이크로소프트에 따르면 사이드킥은 자동차의 라디에이터처럼 작동한다.

마이크로소프트 대변인은 "차가운 액체는 사이드킥에서 마이아 100 칩의 표면에 부착된 냉각판으로 흐른다. 각 플레이트에는 열을 흡수하고 전달하기 위해 액체가 순환하는 채널이 있다. 이 액체가 사이드킥으로 흐르면 액체의 열을 제거하고 더 많은 열을 흡수하기 위해 다시 랙으로 보내는 식으로 작동한다”라고 설명했다.
 

맞춤형 칩의 핵심 동인은 경제성과 지속가능성

애널리스트들에 따르면, 마이크로소프트, AWS, 구글 같은 대형 클라우드 서비스 업체가 맞춤형 칩을 개발하는 핵심 동인은 칩 부족이 아닌 경제성이다.

리서치 및 컨설팅 회사 퓨처럼 그룹의 CEO 다니엘 뉴먼은 "마이크로소프트는 경제성의 관점에서 맞춤형 칩을 개발함으로써 자사 제품을 통합하고 서비스에 맞는 칩을 지속적으로 최적화하는 동시에 마진을 높이고 비용과 가용성을 더 잘 제어할 수 있게 됐다”고 평가했다. 

뉴먼에 따르면 AWS 역시 이런 이유로 자체 맞춤형 칩을 개발했다. AWS는 머신러닝 가속기인 트레이니엄(Trainium)과 결합된 인퍼런시아(Inferentia) 칩을 보유하고 있으며, 구글은 텐서 칩을 개발해 왔다.

뉴먼은 "코발트 CPU는 마이크로소프트가 클라우드에 최적화된 칩을 제공하고 AWS가 EC2를 사용하는 것과 마찬가지로 애저 클라우드 고객에게 Arm 기반 인스턴스를 제공하는 핵심이 될 것”이라고 덧붙였다.

새로운 칩은 AI 또는 생성형 AI에 대한 수요가 증가함에 따라 마이크로소프트가 자체 AI 가속기 소프트웨어 프레임워크를 구축할 기회의 창이 될 수도 있다. 뉴먼은 "AI 워크로드용 가속기를 구축하는 것은 GPU 같은 다른 칩보다 적은 전력을 사용하면서 성능을 향상시킬 수 있는 방법이다. 지속 가능성 목표를 달성하고 AI의 잠재력을 활용하려는 솔루션 업체나 기업에는 앞으로 에너지 효율을 높이면서 성능을 향상하는 것이 더 중요해질 것”이라고 강조했다.
 

엔비디아, AMD, 인텔에 대항하는 맞춤형 칩

마이크로소프트의 새로운 맞춤형 칩은 LLM 개발에서 엔비디아의 GPU를 대체할 만큼 강력하지는 않다. 하지만 운영 중인 AI 워크로드의 추론 작업에 적합하기 때문에 엔비디아나 AMD, 인텔 칩의 수요는 줄어들 것이다. AWS와 구글의 맞춤형 칩도 향후 칩 제조업체에 도전할 것이다.

뉴먼은 "인텔, 엔비디아, AMD는 모두 Arm 기반 인스턴스의 부상을 목격하고 있으며, 특정 인스턴스에서는 이를 경쟁 위협으로 간주해야 한다”고 지적했다. 

소프트웨어가 특정 칩 아키텍처용으로 작성되는 경우가 많기 때문에 x86 아키텍처 칩에서 Arm으로 워크로드를 마이그레이션하는 데는 많은 노력이 필요하지만, Arm에서 실행되는 워크로드가 점점 늘어나면서 장벽은 낮아지고 있다. 업계 전문가들은 대형 클라우드 서비스 업체가 다양한 수준의 맞춤형 실리콘을 사용하면서 Arm 워크로드가 향후 몇 년 동안 데이터센터 시장에서 의미있는 진전을 이룰 것으로 본다. 
        
뉴먼은 모든 칩 제조업체 중에서 엔비디아가 영향을 가장 적게 받을 것으로 예상한다. 당분간 GPU 수요가 계속 증가할 것이기 때문이다. 하지만 일부 사례 또는 사용 사례에서는 클라우드 서비스 업체의 맞춤형 칩이 엔비디아, 특히 LLM 개발 및 학습을 대상으로 하는 그레이스 호퍼(Grace Hopper) 칩과 공생 관계를 맺을 수도 있다.

마이크로소프트의 새로운 맞춤형 칩은 내년 초부터 데이터센터 현장에 배치될 예정이다. 또한 마이크로소프트는 이들 칩을 서드파티에는 판매하지 않을 계획이다.
editor@itworld.co.kr
CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
Sponsored
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.