Offcanvas

AI / IoT / 데이터센터 / 머신러닝|딥러닝 / 서버 / 클라우드

기고 | AI 칩 전쟁의 서막··· 누가, 왜 뛰어들었나

2017.08.29 Marc Ambasna-Jones  |  IDG Connect
지난 7월 영국 브리스톨(Bristol)에 있는 AI 칩 신생벤처 그래프코어(Graphcore)에 대한 3,000만 달러 투자는 AI 칩 개발이 전통적인 CPU 기업들에게 어느 정도의 영향력을 발휘하는지 여실히 보여줬다. 같은 달 초 선두 AI 칩 제조사 엔비디아는 중국의 웹 서비스 기업 바이두(Baidu)와 계약을 체결하고 ‘AI 가속화’를 약속했으며 마이크로소프트의 AI 연구 부사장 해리 셤은 최근 마이크로소프트의 홀로렌즈(HoloLens)를 위한 자체 AI 칩 개발 과정에 관해 이야기했다. 구글의 TPU, 애플의 스마트폰용 AI 칩 소식, 텍사스의 오스틴에 있는 미틱(Mythic)을 포함한 여러 신생벤처를 고려할 때 프로세서 열전을 가늠할 수 있다.



기술업계와 특히 전통적인 프로세싱 강자 인텔에게는 정의하는 기간일 수도 있다. 무어의 법칙(Moore’s Law)은 인텔에 수년 동안 큰 도움이 되었으며 트랜지스터(Transistor)를 늘려 성능을 높이면서 데이터센터 서버의 지배적인 강자로 군림하게 되었다. 물론, 아직 멀기는 했지만 데이터 지향적인 세상이 점차 도래하면서 기존의 기술과 칩 디자인에 대한 압박이 거세지고 있다. 그 결과, 인텔의 지배력이 위협받고 있으며 경쟁 영역이 완전한 평형을 이루지는 못했지만 새로운 경쟁자가 진입할 수 있는 충분한 여지가 발생했다.

예상했듯이 인텔도 가만히 있지는 않았다. 지난해 자체 AI 칩인 너바나(Nervana)를 출시했으며 3월에는 이스라엘의 칩 제조사 모바일아이(MobileEye)를 150억 달러에 인수했지만 분발해야 한다. 엔비디아 등의 기업들은 이미 2006년에 새로운 접근방식이 필요하다는 점을 깨닫고 미리 손을 썼다. 엔비디아의 솔루션 아키텍처 및 엔지니어링 부사장 마크 해밀턴(Marc Hamilton)에 따르면 해당 기업은 11년 전부터 개발한 병렬 컴퓨팅 플랫폼이자 애플리케이션 프로그래밍 인터페이스인 CUDA를 기반으로 AI 대상 제품을 개발하고 있다고 밝혔다.

“우리는 매년 R&D에 30억 달러씩 투자하고 있으며 그 대부분은 AI에 투입되고 있다.”고 해밀턴이 말했다. “AI 부문에서 성공하려면 달라야 한다. 기존의 상품 프로세서에 의존해서는 안 된다.”

그렇다면 30억 달러의 R&D 투자는 어떤 의미가 있을까? 해당 기업이 보유한 AI 관련 특허는 몇 개일까? 해밀턴은 수치를 밝히지 않았지만 엔비디아의 파스칼(Pascal) 아키텍처 제품과 ‘인터페이스’ 속도를 개선하기 위한 개발 업무를 언급했다. 그는 텐서 RT(Tensor RT)칩이 딥러닝 프로세스의 추론 단계에서 그 어떤 것보다도 10배나 빠르다고 말했으며 이미 머신러닝 기술 초기 사용자들이 관심을 보이고 있다.

해밀턴은 “페이스북이 딥러닝을 사진 식별에 사용하고 있지만 훨씬 까다로운 동영상 콘텐츠에도 눈길을 주고 있다”며 “더욱 빠르고 뛰어난 추론 능력이 필요하며 이를 위해서는 네트워크에 대한 하드웨어 및 소프트웨어 접근방식이 필요하다. 일반적으로 사람들은 프로세스의 한쪽에서만 일부 소프트웨어를 사용하여 딥러닝 네트워크를 ‘훈련’하고 ‘실행’했지만 최적화가 달라지면 프로세스도 크게 달라진다”고 이야기했다.

페이스북과 중국의 바이두 같은 대형 소셜 플랫폼 및 클라우드 기업들과 마찬가지로 해밀턴은 이런 접근방식이 의료 및 게놈 시퀀싱(Genome Sequencing) 같은 다른 사용례에도 도움이 될 것으로 보고 있다. 엔비디아는 바이두와의 협력관계를 통해 무인 자동차와 지도 제작에도 관심을 두고 있으며 중국의 개발자들이 바이두의 퍼블릭 클라우드를 통해 자사의 GPU에 접근할 수 있도록 허용하고 있다. 그 목적은 엔비디아 인프라를 이용한 개발 가속화로써 현명한 전략이자 엔비디아의 하드웨어 및 소프트웨어 개발에 도움이 될 것이다.

새로운 칩
AI는 분명 발전하고 있지만 궁극적으로는 데이터센터와 장치 사이의 협업을 통해 애플리케이션이 진정한 성능을 발휘하도록 해야 한다. 스마트폰, 드론, 자동차의 장치 하드웨어가 개선되고 엄청난 ‘사고’ 데이터센터 은행인 클라우드를 통해 접근할 수 있기 때문에 머신러닝 제품과 서비스가 크게 발전할 것이다.

더욱 정확한 데이터 분석과 의사 결정이 주요 목표로 여겨지고 있지만 에든버러대학교(University of Edinburgh)의 정보과학대 기계 번역 강사 케네스 헤필드가 경고했듯이 “더 정확한 것에서 더 지능적인 것”으로 넘어가서는 안 된다. 어쨌든 이런 AI 프로세서의 핵심은 소비전력을 낮추면서 속도를 확보하는 것이고 이때 칩 제조사의 통제를 벗어나는 부분으로 인해 달성할 수 있는 것이 제한된다.

헤필드는 현재 애플리케이션(음성인식, 스팸감지, 추천시스템, 표적광고 등)이 광범위하지만 그래프코어 등의 신규 진입자들은 주요 목표가 다르며 그 경계를 넓히고 단지 오늘이 아니라 내일을 위해 프로세서를 재정의할 수 있도록 돕는 것을 그 역할로 여기고 있다.

그래프코어의 공동 설립자 겸 임원 나이젤 툰은 “새로운 프로세서 아키텍처를 발명하고 이를 첨단 칩으로 제조하는 것은 어렵고 비용이 많이 발생한다. 이를 손쉽게 활용할 수 있는 모든 소프트웨어를 구축하는 것도 마찬가지로 어렵고 비용이 더 많이 들기 때문에 20년 이상 유용할 것이라는 생각이 들지 않는다면 고생할 필요가 없다”고 말했다. 이어서 “우리의 IPU는 모든 작업에서 GPU와 CPU를 능가해야 하지만 앞으로의 발견을 위해 유연한 플랫폼을 제공하는 것이 더욱 중요할 것이다”고 강조했다.

툰은 그래프코어의 목표 중 하나가 더 적은 투자로 더 많은 것을 이룸으로써 합리적인 “기계 지능을 보급”하는 것이라고 전했다. 문제는 비용이다. 툰은 현재 연구를 위해 필요한 하드웨어의 비용이 매우 많이 들기 때문에 일부 기업 또는 대학을 제외하고는 실질적인 진입이 불가능하여 혁신 능력이 제한되고 있다고 점에 동의했다.

툰은 “연산 능력과 비용은 여전히 AI 개발의 발목을 잡고 있다”고 말했다. 그래프코어의 IPU 기술이 이를 바꿀 수 있을지는 앞으로 지켜봐야 하겠지만 확실히 무엇인가 있다. 재정 지원만 규모만 보더라도 알 수 있다.

퉅은 “지난 수년 동안 GPU가 특정 사용례에만 효율적으로 사용되면서 훈련 시간을 단축하는 데 크게 기여했지만 연구는 좁은 방향으로 왜곡됐다”며 다음과 같이 말을 이었다.

“광범위한 머신러닝 접근방식에 걸쳐 훈련을 가속화하는 우리의 플랫폼 같은 새로운 플랫폼을 통해 사람들은 새로운 모델을 탐구하거나 가능성이 있었지만 봉인됐던 영역을 다시 탐구할 수 있을 것이다. 우리가 만나 본 많은 머신러닝 혁신자들이 GPU로는 불가능하지만 IPU로는 가능한 새로운 접근방식을 시도하고 싶어 한다.”

그래프코어는 분명 여러 대단한 도전자 중 하나이다. 진정한 목적인 AI 개발 가속화와 진정한 잠재력을 발현이며 이로 인해 혁신이 필연적이라면 인텔, 엔비디아, 구글 등이 앞으로 빠르게 발전하는 AI 부문에서 인수 대상을 찾을 수 있기를 바란다.

*Marc Ambasna-Jones는 영국에서 활동하는 프리랜서이자 미디어 컨설턴트로 1989년부터 비즈니스와 테크놀로지에 관한 글을 썼다. ciokr@idg.co.kr
 
CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.