Offcanvas

AI / 서버 / 클라우드

AWS, 머신러닝용 EC2 캐퍼시티 블록에 엔비디아 H100 GPU 적용

2023.11.03 편집팀  |  CIO KR
엔비디아가 아마존웹서비스와 협력해 머신러닝 워크로드용 아마존 EC2 캐퍼시티 블록(Amazon Elastic Compute Cloud Capacity Blocks)에 엔비디아 H100 텐서 코어 GPU(H100 Tensor Core GPUs)를 탑재한다고 3일 밝혔다.

회사에 따르면 머신러닝 워크로드에는 상당한 컴퓨팅 용량이 필요하다. 여기에 생성형 AI의 등장으로 파운데이션 모델(foundation models, FM)과 대규모 언어 모델(LLM)을 훈련하는 데 사용되는 방대한 데이터세트를 처리하기 위해서는 보다 더 큰 컴퓨팅 용량이 요구되고 있다. GPU 클러스터는 병렬 처리 기능이 결합돼 훈련과 추론 프로세스를 가속화함으로써 이 과제에 적합하다.

기업들이 생성형 AI의 잠재력에 주목하면서 GPU에 대한 수요가 공급을 능가하고 있다. 따라서, 최신 머신러닝 기술을 활용하고자 하는 고객, 특히 도입 단계에 따라 필요한 용량이 변동하는 고객은 머신러닝 워크로드를 실행하는 데 필요한 GPU 클러스터에 액세스하는 데 어려움을 겪을 수 있다. 고객들은 장기 계약을 맺지 않고도 보다 유연하고 예측 가능하도록 필요한 GPU 용량을 확보할 방법을 모색하고 있다.

설명에 따르면 머신러닝용 아마존 EC2 캐퍼시티 블록은 업계 최초의 소비형 아마존 EC2 사용 모델로, GPU 인스턴스에 쉽게 액세스해 머신러닝과 생성형 AI 모델을 훈련하고 배포할 수 있도록 함으로써 머신러닝의 문턱을 낮춘다. EC2 캐퍼시티 블록을 통해 고객은 고성능 머신러닝 워크로드로 설계된 EC2 울트라클러스터에 배치된 수백 개의 엔비디아 GPU를 예약할 수 있다. 페타비트(peta-bit) 규모의 논블로킹(non-blocking) 네트워크에서 EFA(Elastic, Fabric Adapter) 네트워킹을 사용해 아마존 EC2에서 사용 가능한 최고의 네트워크 성능을 제공할 수 있다고 엔비디아는 설명했다.

EC2 캐퍼시티 블록은 최대 8주 전에 미리 확보할 수 있으며, 예약 가능한 총 일수는 1일 단위로 1~14일이다. EC2 캐퍼시티 블록은 1~64개 인스턴스(512개 GPU)의 클러스터 크기로 엔비디아 H100 텐서 코어 GPU 기반의 아마존 EC2 P5 인스턴스(EC2 P5 Instances)에서 사용할 수 있다. 

엔비디아 하이퍼스케일, HPC(Hyperscale and HPC) 담당 부사장인 이안 벅은 "전 세계 기업들이 비즈니스 혁신을 위해 생성형 AI를 도입하면서 가속 컴퓨팅에 대한 수요가 폭발적으로 증가하고 있다. 이제 전 세계 AI 기업들은 AWS의 새로운 머신러닝용 EC2 캐퍼시티 블록을 통해 한 번에 한 개의 서버가 아닌 AWS에서만 사용할 수 있는 전용 규모로 H100을 임대할 수 있다. 이를 통해 대규모 언어 모델을 신속하고 비용 효율적으로 훈련하고 필요할 때 클라우드에서 추론을 실행할 수 있다"fk고 말했다.

이번 EC2 캐퍼시티 블록 사용은 AWS 관리 콘솔(Management Console), AWS 커맨드 라인 인터페이스(Command Line interface) 또는 AWS SDK를 통해  예약할 수 있다. 단 현재 AWS 미국 동부 오하이오 지역에서 사용할 수 있다. ciokr@idg.co.kr
CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
Sponsored
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.