2017.08.25

MS, '브레인웨이브' 프로젝트로 애저 딥러닝 속도 높인다

Serdar Yegulalp | InfoWorld
올해 초 구글은 머신러닝 모델로 예측 속도를 높이는 자체 제작 하드웨어 '텐서 프로세싱 유닛(Tensor Processing Unit)'을 공개했다. 이번엔 마이크로소프트 차례다. 비슷한 하드웨어를 내놨다.



브레인웨이브(Brainwave) 하드웨어로 명명된 이 프로젝트는 다양한 용도의 여러 딥러닝 시스템을 지원한다. 브레인웨이브의 목표는 구글의 TPU와 같다. 머신러닝 모델의 예측 작업 처리 속도를 높이는 것이다. 단, 브레인웨이브는 애저에서 호스팅되며 마이크로소프트의 클라우드에 대규모로 사용되는 자체 제작 하드웨어를 기반으로 한다.

브레인웨이브는 애저내 양한 종류의 작업 속도를 높이기 위해 재프로그래밍이 가능한 FPGA(field-programmable gate arrays)를 이용한다. 대상이 되는 작업은 주로 네트워크 프로세싱이었지만 이제는 머신러닝까지 확대됐다.

개발자가 브레인웨이브를 통해 딥러닝을 실행하려면 별도의 툴이 필요하다. 마이크로소프트는 현재 구글 텐서플로우(TensorFlow)와 마이크로소프트의 코드니티브 툴킷(Cognitive Toolkit)을 지원한다. 앞으로 다른 딥러닝 툴도 추가로 지원할 예정이다. 브레인웨이브는 이들 프레임워크로 개발한 기존 모델을 마이크로소프트의 실리콘에서 네이티브로 실행할 수 있는 형식으로 변환한다(단, 이 과정에서 어느 정도나 병목이 발생하는지는 아직 확인되지 않았다).

마이크로소프트는 브레인웨이브를 이용하면 단순히 전용 실리콘을 사용하는 것보다 큰 속도 향상이 가능하다고 주장한다. FPGA를 데이터센터 네트워크 패브릭에 직접 연결해 딥 신경망을 특정 FPGA와 긴밀하게 연동한다는 것이다. 이러한 고성능 설계는 실시간으로 실행되는 딥러닝 애플리케이션 개발할 때 오랜 기간 오프라인 트레이닝을 거치는 것보다 더 빠르게 작업할 수 있다.

마이크로소프트는 또한 예측 작업에 FPGA를 사용하는 차별화된 방법을 사용했다고 주장했다. 딥 러닝 예측 작업은 정확성과 속도를 교환하는 방식으로 더 빠르게 처리할 수 있다. 브레인웨이브 FPGA는 예측하려는 문제에 따라 필요한 데이터 형식과 종류, 정확성 수준 등을 선택할 수 있다. ciokr@idg.co.kr 



2017.08.25

MS, '브레인웨이브' 프로젝트로 애저 딥러닝 속도 높인다

Serdar Yegulalp | InfoWorld
올해 초 구글은 머신러닝 모델로 예측 속도를 높이는 자체 제작 하드웨어 '텐서 프로세싱 유닛(Tensor Processing Unit)'을 공개했다. 이번엔 마이크로소프트 차례다. 비슷한 하드웨어를 내놨다.



브레인웨이브(Brainwave) 하드웨어로 명명된 이 프로젝트는 다양한 용도의 여러 딥러닝 시스템을 지원한다. 브레인웨이브의 목표는 구글의 TPU와 같다. 머신러닝 모델의 예측 작업 처리 속도를 높이는 것이다. 단, 브레인웨이브는 애저에서 호스팅되며 마이크로소프트의 클라우드에 대규모로 사용되는 자체 제작 하드웨어를 기반으로 한다.

브레인웨이브는 애저내 양한 종류의 작업 속도를 높이기 위해 재프로그래밍이 가능한 FPGA(field-programmable gate arrays)를 이용한다. 대상이 되는 작업은 주로 네트워크 프로세싱이었지만 이제는 머신러닝까지 확대됐다.

개발자가 브레인웨이브를 통해 딥러닝을 실행하려면 별도의 툴이 필요하다. 마이크로소프트는 현재 구글 텐서플로우(TensorFlow)와 마이크로소프트의 코드니티브 툴킷(Cognitive Toolkit)을 지원한다. 앞으로 다른 딥러닝 툴도 추가로 지원할 예정이다. 브레인웨이브는 이들 프레임워크로 개발한 기존 모델을 마이크로소프트의 실리콘에서 네이티브로 실행할 수 있는 형식으로 변환한다(단, 이 과정에서 어느 정도나 병목이 발생하는지는 아직 확인되지 않았다).

마이크로소프트는 브레인웨이브를 이용하면 단순히 전용 실리콘을 사용하는 것보다 큰 속도 향상이 가능하다고 주장한다. FPGA를 데이터센터 네트워크 패브릭에 직접 연결해 딥 신경망을 특정 FPGA와 긴밀하게 연동한다는 것이다. 이러한 고성능 설계는 실시간으로 실행되는 딥러닝 애플리케이션 개발할 때 오랜 기간 오프라인 트레이닝을 거치는 것보다 더 빠르게 작업할 수 있다.

마이크로소프트는 또한 예측 작업에 FPGA를 사용하는 차별화된 방법을 사용했다고 주장했다. 딥 러닝 예측 작업은 정확성과 속도를 교환하는 방식으로 더 빠르게 처리할 수 있다. 브레인웨이브 FPGA는 예측하려는 문제에 따라 필요한 데이터 형식과 종류, 정확성 수준 등을 선택할 수 있다. ciokr@idg.co.kr 

X