Offcanvas

머신러닝|딥러닝 / 서버

엔비디아 "딥러닝 컴퓨팅 플랫폼의 성능, 6개월 만에 10배 향상"

2018.03.28 편집부  |  CIO KR
엔비디아가 GTC 2018에서 자사의 딥러닝 컴퓨팅 플랫폼에 대한 성능 개선 사항을 연이어 공개하며, 딥러닝 워크로드 면에서 6개월 만에 이전 세대 대비 10배의 성능 개선을 이뤘다고 발표했다.

엔비디아 플랫폼의 핵심 개선 사항은 데이터센터 GPU인 엔비디아 테슬라 V100(NVIDIA Tesla V100)의 메모리 2배 확충과 GPU 인터커넥트 패브릭인 엔비디아 NV스위치(NVIDIA NVSwitch)를 포함하며, NV스위치를 활용해 최대 16개의 테슬라 V100 GPU가 초당 2.4테라바이트라는 속도에서 동시에 커뮤니케이션 할 수 있다.

엔비디아는 엔비디아 DGX-2(NVIDIA DGX-2) 출시로 딥 러닝 컴퓨팅 분야에 2페타플롭의 연산 능력을 제공할 수 있게 됐다. DGX-2의 딥러닝 처리 성능은 데이터센터에서 15개의 랙을 차지하는 서버 300대의 성능에 준하지만 크기는 60배 가량 작고 전력 효율성은 18배 가량 우수하다고 업체 측은 설명했다.



엔비디아의 창립자 겸 CEO인 젠슨 황은 “이번에 발표하는 딥러닝 분야의 발전은 앞으로 펼쳐질 미래를 살짝 엿본 수준에 불과하다”며 “개선 사항의 대부분은 전세계의 표준으로 빠르게 자리 잡은 엔비디아의 딥러닝 플랫폼을 토대로 하고 있다”고 말했다.

테슬라 V100 32GB GPU는 전체 엔비디아 DGX 시스템 포트폴리오에 즉시 적용된다. 주요 컴퓨터 제조업체인 크레이, 휴렛패커드 엔터프라이즈, IBM, 레노버, 슈퍼마이크로 및 타이안은 새로운 테슬라 V100 32GB를 적용한 시스템을 2분기 내 출시할 것이라고 발표했다. 오라클 클라우드 인프라스트럭처도 올해 상반기 내 테슬라 V100 32GB를 자사 클라우드에서 제공한다는 계획을 발표했다.

NV스위치는 PCIe 스위치 대비 5배로 높은 대역폭을 제공해, 개발자들이 더 많은 GPU를 하이퍼커넥트 방식으로 연결해 시스템을 구축할 수 있도록 돕는다. 이에 따라 개발자들은 종전의 시스템 상 한계를 극복하고 더 많은 데이터셋을 실행할 수 있게 될 전망이다. 또한, 뉴럴 네트워크의 병렬 트레이닝 모델링처럼 복잡한 대규모 워크로드의 실행 가능성도 열리게 됐다고 업체 측은 설명했다.

엔비디아의 딥러닝 및 HPC 소프트웨어 스택 업데이트는 엔비디아의 개발자 커뮤니티에 무료로 공개된다. 

이번에 공개되는 업데이트에는 새로운 버전의 엔비디아 CUDA(NVIDIA CUDA), 텐서RT(TensorRT), NCCL, cuDNN이 포함되며, 새로운 로보틱스 아이작(Isaac) 소프트웨어 개발 키트도 포함되어 있다. 이외에도 클라우드 서비스 기업들과의 긴밀한 협업을 통해 모든 주요 딥 러닝 프레임워크가 엔비디아 GPU 컴퓨팅 플랫폼의 다양한 이점을 충분히 활용할 수 있도록 지속적인 최적화 작업이 진행된다. ciokr@idg.co.kr
CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.