Offcanvas

AI / 개발자 / 데이터센터 / 로봇|자동화 / 머신러닝|딥러닝 / 모바일 / 서버 / 신기술|미래 / 애플리케이션

"캄브리아기 대폭발처럼"··· AI 하드웨어 가속기가 몰려온다

2018.07.23 James Kobielus  |  InfoWorld


자연어 처리, 이미지 인식, 자율주행을 위한 자체 NNPU 칩을 출시하는 것 외에 바이두는 퍼블릭 클라우드에서의 FGPA 지원 AI작업 부하 가속, 제온CPU용 AI프레임워크, AI 장착 자율주행 자동차 플랫폼, 컴퓨터 비전 지원 소매 카메라, 인텔의 nGraph 하드웨어 불가지론적 딥 신경망 컴파일러를 위해 인텔과 협력하고 있다.

엔비디아 또한 바이두 클라우드에의 볼타 GPU적용, 바이두의 볼타용 패들패들(PaddlePaddle) AI 개발 프레임워크, 중국 소비자 시장에서 엔비디아 지원 AI 출시 등에 관한 소식을 발표했다.

클라우드와 특수 SoCs의 분야에서 광범위하게 출현하고 있는 AI가속기 하드웨어 옵션과 그 조합을 살펴보기가 하루가 다르게 어려워지고 있다. 유연한 벤치마크 프레임워크가 없다면 특정 과업에서 전반적인 성능에 대한 AI가속기 하드웨어의 기여도를 분리하는 것이 까다로울 수 있다.

다행히도 AI산업은 다양한 작업 부하 운영 시 다양한 하드웨어/소프트웨어 스택의 비교 성능을 평가하기 위한 벤치마크를 위한 개방적이고 투명한 벤더 불가지론적 프레임워크를 개발하고 있다.

- MLPerf
예를 들어, MLPerf 오픈소스 벤치마크 그룹은 머신러닝 소프트웨어 프레임워크, 하드웨어 가속기, 클라우드 플랫폼의 벤치마크를 위한 표준 스위트(Suite)를 개발하고 있다. 깃허브에서 제공되며 현재 베타 버전 상태인 MLPerf는 오늘날의 AI 배치를 지배하는 일부 AI 과업에 대한 기준 이행을 제공한다.

이를테면 특정 데이터 세트(이미지넷(ImageNet) 등)에 대해 특정 알고리즘(Resnet-50 v1 등)이 수행하는 특정 AI 과업(이미지 분류 등)에 대한 벤치마크를 조사하고 있다. 핵심 벤치마크는 16개의 CPU 칩, 1개의 엔비디아 P100 볼타 GPU, 600 기가바이트의 로컬 디스크로 구성된 플랫폼에서 우분투(Ubuntu) 16.04, 엔비디아 도커(Nvidia Docker), C파이썬 2(CPython 2)를 구동하는 이미지 분류 훈련 작업 등의 구체적인 하드웨어/소프트웨어 배치에 초점을 맞춘다.

MLPerf 프레임워크의 다른 장점은 유연성이다. 최근에 발표된 마이두 쿤륜(Kunlun) FPGA 등 다양한 하드웨어 가속기에서 구동하는 같은 과업에 대해 GPU 기반 이미지 분류 훈련을 동등한 성능의 소프트웨어/하드웨어 스택 내에서 벤치마크할 수 있을 정도다.

MLPerf는 이 외의 AI산업 벤치마크 계획을 보유하고 있다. 대체 AI가속기 칩뿐만이 아니라 같은 훈련 또는 운영 데이터에 대해 같은 모델을 사용해 같은 과업을 해결하는 배치에 있어서 하드웨어와 소프트웨어 구성요소의 비교 성능 평가를 가능하게 한다는 구상이다.

다른 벤치마크 계획에는 돈벤치(DawnBench), 리퀘스트(ReQuest), TPPC(Transaction Processing Performance Council)의 AI 워킹 그룹(AI Working Group), CEAN2D2 등이 있다. 이들 모두 어느 배치 티어에서나 구동하는 AI 워크로드 과업에 대해 적용하고 경제적 허용 한계치에 대해 측정할 수 있을 정도로 충분히 유연하다.

- EEMBC 머신러닝 벤치마크 스위트(Machine Learning Benchmark Suite)
엣지로의 AI워크로드의 이동을 반영한 일부 AI 벤치마크 계획은 순수하게 이 티어에 배치된 하드웨어/소프트웨어 스택의 성능 측정에 초점을 맞추고 있다. 예를 들어, 산업 단체 EEMBC는 최근 출력이 제한된 엣지 장치에서 구동하는 최적화된 칩셋에서의 머신러닝 실행을 위한 벤치마크 스위트를 정의하기 위해 새로운 노력을 시작했다.

인텔이 의장직을 맡은 EEMBC의 머신러닝 벤치마크 스위트 그룹은 가상 비서, 스마트폰, IoT 장치, 스마트 스피커, IoT 게이트웨이, 기타 임베디드/엣지 시스템의 현실적인 머신러닝 워크로드를 이용해 머신러닝 추론 작업 가속용 프로세서 코어의 성능 잠재력을 확인하고 효율성을 강화할 전망이다.

EEMBC 머신러닝 벤치마크는 낮은, 중간, 높음 복잡성 추론 과업의 추론 성능, 신경망 스핀업(Spin-up) 시간, 에너지 효율을 측정하게 된다. 머신러닝 전단 프레임워크, 후단 런타임 환경, 하드웨어 가속기 대상을 가리지 않을 것이다. 해당 그룹은 개념 증명을 개발하고 있으며 2019년 6월까지 일련의 신경망 아키텍처와 엣지 기반 추론의 사용례를 포함하여 초기 벤치마크 스위트를 공개할 계획이다.

- EEMBC 아다스마크(Adasmark) 벤치마크 프레임워크
더 좁은 범위의 과업 범위를 겨냥한 EEMBC의 아다스마크 벤치마크 프레임워크는 AI 장착 스마트 자동차에 집중한다. 머신러닝 벤치마크 노력과는 별개로 EEMBC는 고급 운전자 보조 시스템에 내장된 AI 칩을 위한 별도의 성능 측정 프레임워크를 개발하고 있다.

이 스위트는 다중 장치, 다중 칩, 다중 애플리케이션 스마트 자동차 플랫폼에서 실행되는 AI 추론 과업의 성능을 측정하는데 도움이 된다. 컴퓨터 비전, 자율주행, 자동차 서라운드 뷰(Surround View), 이미지 인식, 모바일 증강 현실 등 고도의 병렬 스마트 자동차 애플리케이션과 연계된 현실적인 추론 작업 부하를 벤치마크한다.

공통 새시 안에서 별도의 과업을 수행하는 복수의 특화된 CPU, GPU, 기타 하드웨어 가속기 칩셋이 포함되는 복잡한 스마트 자동차 엣지 아키텍처의 추론 성능을 측정한다.

새로운 AI 시나리오는 더 많은 특수 칩이 요구
다른 특화된 AI 엣지 시나리오에서는 자체적인 특화 칩, SoC, 하드웨어 플랫폼, 벤치마크가 필요할 것이다. AI 칩셋의 또 다른 성장 분야는 AI 및 게이밍과 함께 엔비디아 GPU에 대한 수요를 폭발적으로 증가시킨 사용례인 암호화폐 채굴을 위한 엣지 노드 가속화일 것이다.

이 틈새시장에 특화된 벤더인 딥브레인 체인(DeepBrain Chain)은 최근에 AI 작업 부하의 고성능 처리 및 암호화폐 토큰의 채굴을 위해 분산형 구성에 배치할 수 있는 컴퓨팅 플랫폼을 발표했다. 채굴 스테이션은 2, 4, 8 GPU 구성으로 제공될 뿐 아니라 단독형 워크스테이션과 128-GPU 사용자 정의 AI HPC 클러스터로도 제공된다.

머지않아 분산형 암호화폐 채굴에 집중하는 새로운 세대의 AI ASIC가 등장할 것이 확실시된다.

특화된 하드웨어 플랫폼은 우리가 살고 있는 클라우드-엣지 세계의 모든 티어와 모든 과업을 위한 AI의 미래다.

* James Kobielus는 실리콘앵글 위키본의 수석 애널리스트다. ciokr@idg.co.kr 

CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
Sponsored
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.