Offcanvas

AI / 머신러닝|딥러닝 / 비즈니스|경제 / 빅데이터 | 애널리틱스 / 서버 / 애플리케이션 / 자동차

김진철의 How-to-Big Data | 빅데이터와 인공지능 (4)

2018.09.27 김진철  |  CIO KR


빅데이터 비즈니스에서의 새로운 컴퓨터 아키텍처의 중요성
앞서 살펴본 레베카 카니 박사의 연구와 같이 CERN과 LHC 실험 연구자들은 차세대 HL-LHC 가속기에서 발생하는 빅데이터 처리의 기술적인 난제들을 해결하기 위해 트루노스와 같은 실험적인 기술들도 활용하기 위해 적극적으로 노력하고 있다. LHC 실험 연구자들이 이런 실험적인 뉴로모픽 프로세서까지 이용하여 LHC 빅데이터 문제를 해결하려고 노력하는 현실에서 우리가 빅데이터 비즈니스와 관련해 배울 수 있는 교훈은 다음과 같다.

첫번째로, 새로운 컴퓨터 아키텍처와 기술이 해결해줄 수 있는 빅데이터 문제가 빅데이터 비즈니스를 하는 기업에게는 위기이자 기회가 될 수 있다는 점이다.

필자는 과거의 연재에서 빅데이터 비즈니스를 위해 빅데이터 인프라와 정보 시스템을 구축할 때에는 아무리 작은 규모로 투자를 하려고 노력해도 일반 기업의 입장에서는 절대 적지 않은 투자가 들어가게 마련이니 빅데이터 비즈니스에서 풀려고 하는 문제와 비즈니스 가치를 초반에 분명히 하고 최소한의 투자로 작게 빅데이터 인프라와 정보 시스템을 구축하여 비즈니스 모델을 실험해보라고 계속 강조하였다. 빅데이터 비즈니스는 그 투자 규모를 고려했을 때 스타트업보다는 대기업이 더 유리할 수도 있지만, 대기업이라 하더라도 스타트업과 같은 비즈니스 모델 검증의 마인드로 초기 투자를 시작하는 것이 바람직하다는 것이다.

이렇게 빅데이터 기반의 신사업을 시작할 때 스타트업과 같은 마인드로 작게 시작하는 것이 중요한 이유는 빅데이터를 활용할 수 있게 해주는 기술의 발전이 빅데이터 비즈니스에 주는 영향이 상당히 크기 때문이다.

LHC 실험의 경우 힉스 보존을 발견하기 위해 빅데이터 인프라와 실험 데이터 분석 시스템을 구축하는 데에 20년이 넘는 시간이 걸렸다. 이렇게 오랜 시간 동안 LHC 가속기와 ATLAS, CMS와 같은 검출기, 그리고 LHC 컴퓨팅 그리드로 대표되는 빅데이터 분석 인프라를 건설하고 구축하다 보니 이 과정에서 계속해서 발전하는 기술로 인해 초기에 분석했던 빅데이터 요구 사항이 실험 장치 건설 중에 더 높은 수준으로 상향되거나, 새롭게 개발된 컴퓨팅 기술로 인해 실험 계획 초기에 분석했던 요구 사항을 만족하기 위해 구축한 정보 시스템보다 더 작은 규모와 비용으로 원래의 요구 사항을 만족시킬 수 있게 되는 경우가 많았다.

사실 일반 기업도 끊임없는 정보 기술의 발전으로 최신 정보 기술 트렌드에 따라 비즈니스 정보 시스템을 새롭게 구축하거나 확장하는 것은 흔한 일이다. 필자의 글을 읽고 있는 여러분들도, 빅데이터 기술 트렌드를 기업의 정보 시스템과 비즈니스 모델 혁신에 어떻게 적용해야 할지 관심이 많아 그 해답을 찾고 싶어 필자의 글을 읽고 있을 것이다.

빅데이터 비즈니스의 경우 발전하는 정보 기술에 좀더 촉각을 곤두세워 대비해야 하는 이유는 빅데이터 인프라 및 정보 시스템은 복잡한 분산 컴퓨팅 시스템인 데다가 과거의 관계형 데이터베이스로 대표되는 정형화된 데이터와는 다른 양과 속도로 빠르게 쌓이는 빅데이터의 특성으로 인해 새로운 빅데이터 기술을 활용하기가 쉽지 않기 때문이다. 새로운 빅데이터 기술을 활용하는 적절한 시점을 놓치게 되면 영속적인 빅데이터 비즈니스를 유지할 수 있는 비즈니스 타이밍을 놓칠 수도 있다.

대규모의 투자를 통해 적지 않은 시간 동안 빅데이터 비즈니스 시스템을 구축하고 빅데이터 비즈니스를 막 시작했는데, 새롭게 나온 정보 기술로 인해 이제 막 시작한 스타트업이나 경쟁 회사가 자사보다 낮은 단가와 비용으로 비슷한 빅데이터 비즈니스를 시작한다고 생각해보자. 빅데이터의 특성상 이미 구축한 빅데이터 비즈니스 인프라를 단번에 교체하거나 바꾸기는 쉽지 않을 뿐만 아니라, 이미 상당한 양의 빅데이터를 수집해서 가지고 있는 경우에는 기존에 수집된 데이터를 이용해 제품과 서비스를 제공받고 있는 고객들을 유지하면서 새로운 시스템을 구축해야 한다.

CERN의 CMS 검출기의 경우, 필자가 개발에 참여했던 2006~2008년 즈음에는 CMS 검출기의 온라인 데이터 수집, 처리 분산 컴퓨팅 시스템이 CMS 검출기의 원시 데이터를 처리하기 위해 당시 최고 성능의 CPU였던 AMD의 옵테론 64비트 CPU 두 개와 당시 가장 빠른 고성능 네트워크였던 미리넷 네트워크 인터페이스 카드가 장착된 서버가 1,000여 대가 필요하였으나, 현재의 인텔 제온 프로세서와 인피니밴드 고성능 네트워크 카드를 이용하면 불과 100여 대의 서버만으로도 충분하며, 구축 비용도 크게 낮아졌다.

이런 최신 컴퓨터 기술의 발전을 고려하여 LHC 연구자들은 다가오는 HL-LHC 시대를 위해 현재 CMS 검출기를 비롯한 네 대의 검출기의 빅데이터 처리 시스템을 최신 컴퓨터 아키텍처와 기술을 기반으로 전면적으로 업그레이드하는 작업을 진행하고 있다. 하지만, 이 작업 또한 구축 후 기존 LHC 가속기 및 ATLAS, CMS 검출기와 통합해야 하고, 현재 계획된 실험을 진행하면서 빅데이터 처리 시스템을 업그레이드해야 하는 어려움이 있어서 몇 개월에서 1년의 단기 프로젝트가 아닌 3~5년의 중장기 프로젝트로 진행되고 있다. 전 세계 각국의 정부가 예산을 지원하는 LHC 실험의 경우에도 이렇게 어려운 과정을 거쳐 빅데이터 시스템 업그레이드를 진행하는데, 빅데이터 비즈니스 시스템의 운영에 따라 비즈니스의 성패와 조직의 흥망이 달린 기업의 경우 빅데이터 시스템의 교체나 업그레이드가 더 신중할 수밖에 없을 것이다.

앞의 LHC 실험의 사례를 들어 설명했듯이 새로운 빅데이터 기술과 컴퓨터 아키텍처를 가진 IT 장비를 이용해 더 적은 비용과 규모로 빅데이터 비즈니스 시스템을 구축하여 데이터 기반 상품과 서비스를 제공하게 된다면 당연히 더 저렴한 비용으로 지능적인 서비스를 고객들에게 제공할 수 있어 기업의 입장에서는 원가 경쟁력이 올라갈 수밖에 없다. 이렇게 새로운 컴퓨터 아키텍처와 기술의 시스템으로 서비스 단가를 낮출 수 있는 장점도 있으나, 이런 새로운 시스템으로 기존의 빅데이터 시스템을 전환하는데 드는 비용이 더 들 수 있기 때문에 새로운 컴퓨터 아키텍처와 기술을 빅데이터 비즈니스가 한창 성장하는 과정이나 진행되는 과정에서 도입하는 것이 더 어려울 수도 있게 된다.

이렇게 기존의 데이터를 유지하면서 새로운 빅데이터 기술을 적용하고, 그리고 다시 새로운 빅데이터 비즈니스 정보 시스템으로 데이터를 마이그레이션하여 비즈니스 정보 시스템을 업그레이드하는 데에 많은 시간과 비용이 발생할 수 있으며, 경우에 따라서는 전사적인 범위의 비즈니스 인프라 개편이 필요할 수 있다. 이렇게 빅데이터 비즈니스 정보 시스템을 변경, 개선하는 데에 들어갈 수 있는 시간과 비용으로 인해 비즈니스 기회를 놓칠 수 있기 때문에 빅데이터 비즈니스 조직에는 새로운 빅데이터 기술과 컴퓨터 아키텍처가 생각보다 큰 위험 요인이 될 수 있다.

느슨하고 확장성 있는 통합을 구현할 수 있는 서비스 지향 아키텍처로 빅데이터 정보 시스템을 구축하는 것이 중요한 이유가 바로 여기에 있다. 빅데이터 비즈니스의 경우 새로운 기술이나 컴퓨팅 아키텍처의 출현이 비즈니스 모델과 경쟁 구도에 큰 영향을 미칠 수 있기 때문에 기술의 발전에 따른 빅데이터 비즈니스 정보 시스템의 진화가 기민하고 신속하게 이루어질 수 있도록 느슨하고 확장성 있는 아키텍처로 빅데이터 비즈니스 정보 시스템이 구축될 필요가 있다.

두번째로, 빅데이터 비즈니스를 영속적으로 운영하고 성장시키고 싶은 기업과 조직에는 새로운 컴퓨터 아키텍처가 빅데이터 비즈니스에 주는 영향과 이점을 지속해서 탐구하고 새로운 컴퓨터 기술을 이용해 빅데이터 비즈니스 인프라와 비즈니스 모델을 어떻게 진화시켜 나갈지 끊임없이 고민해야 한다는 점이다.

새로운 기술이나 컴퓨터 아키텍처가 빅데이터 비즈니스에 주는 영향은 대개 빅데이터 처리 및 가공 성능 향상에 따른 비즈니스 민첩성과 확장성, 인공지능 기술의 발전에 따른 자동화 수준의 향상이다. 기존 비즈니스 정보 시스템은 조직의 업무를 체계화, 조직화하여 업무의 효율을 높이거나 보조하는 데 있는 경우가 많았다. 빅데이터 비즈니스 정보 시스템은 빅데이터 처리, 가공의 속도와 성능, 인공지능을 이용한 자동화의 정도에 따라 비즈니스 모델이 결정되거나 이들 기술의 활용 방안에 따라 서비스의 단가와 수준이 달라져 비즈니스 모델의 실행 가능성 유무가 결정되기 때문에 과거 일반 제조업이나 서비스 산업보다 정보 기술의 중요성이 훨씬 더 높다.

예를 들면 과거에는 같은 서비스를 제공하는데 10,000여 대의 서버와 이를 운영할 수 있는 데이터 센터 건설이 필요해 일반 기업의 입장에서 제공하기 어려웠던 데이터 기반 지능형 서비스(예를 들면 구글의 인터넷 검색 기반 제휴 마케팅(AdSense) 서비스)가 요즘은 불과 수십, 수백 대의 서버로 충분하다거나, 아니면 클라우드 서비스를 이용해서 금방 구축이 가능한 수준의 서비스가 되었다면, 이는 정보 기술의 수준에 따라 기업이 실행할 수 있는 빅데이터 비즈니스 모델의 한계가 근본적으로 달라진다는 것을 의미한다. 즉, 새로운 컴퓨터 아키텍처와 기술이 비즈니스 모델 그 자체를 근본적으로 규정하기도 한다는 것이다.

이와 같이 빅데이터 비즈니스는 컴퓨터 아키텍처와 기술이 비즈니스 모델의 실행 가능 여부와 그 한계까지도 결정할 수 있다. 대표적인 빅데이터 비즈니스 기업인 구글이 텐서플로 같은 오픈소스 딥러닝 소프트웨어를 직접 만들어 배포하거나 텐서 프로세싱 유닛(Tensor Processing Unit; TPU) 같은 새로운 컴퓨팅 아키텍처의 프로세서를 만들어 사용하는 것도 구글이 지향하는 웹 빅데이터 기반 비즈니스의 영속을 위해 필요한 새로운 비즈니스 모델의 발굴과 실행을 위한 것이다. 구글이 내어놓은 인공지능 연구용 TPU 클라우드 서비스나 구글 클라우드 Vision API, Video Intelligence API와 같은 클라우드 인공지능 API들은 자사의 빅데이터 비즈니스의 영속을 위해 개발하거나 도입한 기술을 다시 서비스화하여 B2B 상품화한 것이다.

세번째로, 영속적인 빅데이터 비즈니스를 위해 특정한 빅데이터 기술에 초점을 맞추기보다는 빅데이터의 수집과 이 빅데이터를 이용한 비즈니스 가치에 초점을 맞춘 비즈니스 모델에 초점을 맞추어야 한다는 것이다.

위의 두 가지 교훈에서는 빅데이터 비즈니스 모델이 빅데이터 처리를 가능하게 하는 기술과 새로운 컴퓨터 아키텍처에 의해 크게 영향을 받을 수 있음을 자세하게 설명하였다. 그런데, 왜 다시 기술보다는 비즈니스 모델에 초점을 더 맞추어야 할까? 그 이유는 빅데이터 비즈니스를 수행하는 기업도 영속적인 비즈니스를 추구해야 하는 조직이기 때문이다.

5년이나 10년 동안 한시적으로 새로운 비즈니스 모델을 실험, 검증하고 기존의 대기업에 인수, 합병되어 출구 전략을 실행하려는 스타트업과 같은 경우는 비즈니스 영속성에 대해 크게 고민하지 않아도 될지 모르겠으나, 현재의 비즈니스를 계속해서 성장시키고 유지하고 싶은 대부분 기업은 영속적인 비즈니스 모델에 대한 고민을 하지 않을 수 없을 것이다. 이런 측면에서 영속적인 빅데이터 비즈니스를 위해서는 기업의 근본이 되는 비즈니스 모델은 특정한 기술에 지나치게 의존하지 않는 근본적인 사회적 가치를 제공할 수 있어야 한다.

요즘 다양한 미디어를 통해 드러나는 경제 상황을 보면 필자는 새로운 경제 체제와 산업 구조로 재편되고 있는 전환기라는 생각을 하지 않을 수 없다. 특히 빅데이터와 클라우드, 인공지능 IoT를 포함한 첨단 정보 기술의 발전으로 기업이 생존하기 위해 필요한 역량의 수준도 그 수준이 점점 더 높아지고 있다는 것을 느낄 수 있다.

정보 기술의 진보에 따라 기업에 시장 및 산업 환경에 대해 수집할 수 있고 이해할 수 있는 정보의 양과 폭이 넓어짐에 따라서 기업이 비즈니스를 하는 방법과 방식도 크게 바뀌고 있다. 이에 따라서 제조업과 에너지 산업 등의 전통적인 사업을 하는 방법도 많이 달라지고 있을 뿐만 아니라, 이런 전통적인 사업들이 새로운 경제 체제와 산업 구조에 맞게 변화하는 것을 돕는 기술과 서비스를 파는 기업들의 출현으로 인해 산업의 구조 또한 바뀌고 있다.

첨단 정보 통신 기술로 인해 기업이 비즈니스 환경에 대해 좀더 정확하게 감지하고 이해할 수 있는 역량이 크게 향상되고, 언제나 기업 경영에서 가장 큰 어려움인 복잡한 비즈니스 환경의 불확실성을 다룰 수 있는 위험 관리의 역량이 높아지고 있다. 이로 인해, 과거에는 발견되지 못했던 새로운 비즈니스 모델과 이러한 비즈니스 모델을 통한 산업 구조의 재편도 가능해진 시대가 된 것이다.

이렇게 산업 구조가 재편될 가능성이 높아지고 있는 상황에서 재편되는 산업 구조의 핵심 비즈니스 영역을 새로운 신생 기업이 차지해서 좀더 영속적인 비즈니스를 일구어 나갈 기회가 많아졌다. 이런 트렌드의 대표적인 예가 자율주행, 로봇택시 서비스 등으로 대표되는 교통 공유 서비스 산업인데, 구글의 웨이모, 우버 등의 회사들이 앞선 기술력으로 만들어가고 있는 새로운 공유 경제 산업의 핵심 비즈니스 모델이라고 할 수 있다.

빅데이터와 인공지능 기술을 위한 새로운 컴퓨팅 플랫폼은 그 잠재력이 확인되지 않은 만큼 위험 요인일 수도 있지만, 기업들이 기존에 존재하지 않았던 비즈니스 모델을 시도할 수 있는 강력한 도구가 될 수 있다. 이런 새로운 기술의 트렌드가 어떤 식으로 발전할지를 예상하고, 이런 트렌드를 고려하여 좀더 대담하고 근본적인 비즈니스 모델을 구현하는 것을, 소위 블루오션 비즈니스를 창조하는 것을 목표로 삼는 것이 빅데이터 비즈니스 기업들이 영속적인 비즈니스를 할 수 있는 더 안전한 방법일 수 있다.

하둡이나 스파크, 텐서플로 같은 특정한 기술에 초점을 맞추는 비즈니스는 이런 도도한 변화의 큰 흐름에서는 일시적으로 생존할 수 있는 비즈니스만을 할 수 있게 할 뿐이다. 도구의 잠재력을 충분히 활용하되, 도구가 줄 수 있는 능력과 역량에 기초해서 기업이 할 수 있는 일을 생각하고, 이런 능력과 역량을 이용해서 사회 변화라는 큰 파도의 힘을 이용하는 좀더 근본적인 비즈니스 가치를 제공할 수 있는 비즈니스 모델을 대담하게 고민해보자. 지금까지 없었던 자율주행차를 이용한 차량공유 서비스와 같이 사회 변화의 큰 축을 짊어지고 함부로 흔들리지 않을 수 있는 비즈니스 모델을 고민하자.

이런 대담한 비즈니스 모델들이 대부분 기업에게는 꿈과 같은 어렵고 위험한 비즈니스 모델이라는 생각이 들지는 모르겠지만, 빠르게 발전하는 새로운 컴퓨팅 플랫폼 기술과 오픈소스 소프트웨어 기술들이 그 실현을 생각보다 빠르게 앞당기고 있다. 빅데이터 비즈니스에 크게 도움이 되고, 이런 대담한 비즈니스 모델들을 실험할 수 있게 도울 최근 컴퓨팅 플랫폼 기술의 변화에 대해 간단히 소개하는 것으로 이번 글을 정리하려고 한다.

우선 가장 눈에 띄는 컴퓨팅 하드웨어 플랫폼 기술은 앞서 소개한 뉴로모픽 프로세서 기술이다. 인간의 두뇌는 과학에서 아직도 미지의 영역으로 남아 있는 연구의 대상이지만, 또한 과학기술의 발전으로 최근 가장 많은 지식이 빠르게 쌓여가고 있는 영역이기도 하다. 뇌의 정보처리 방법을 모방한 딥러닝이 큰 성공을 거두고 있는 것도 이렇게 우리 두뇌의 정보처리 방법에 대한 이해가 늘었기 때문에 가능한 것이다.

우리 두뇌의 정보처리 메커니즘을 새로운 컴퓨터 하드웨어 기술로 만들려고 하는 뉴로모픽 프로세서 기술은 로보틱스와 인공지능을 이용한 지능형 제품과 서비스에 큰 영향을 줄 기술이다. 빅데이터 비즈니스를 하려는 기업의 경우, 뉴로모픽 프로세서는 높은 수준의 데이터 처리 자동화와 사람이 접근하거나 수행하기 어려운 환경에서의 데이터 수집과 작업을 자동화할 수 있는 능력을 갖출 수 있게 하여 훨씬 더 대담한 비즈니스 모델을 시도해볼 수 있게 한다.

엄밀하게 얘기하면 최근 심층신경망 모델 연산을 하드웨어 수준으로 가속하는 딥러닝 SoC 기술은 뉴로모픽 프로세서라고 볼 수는 없지만, 두뇌의 정보처리 메커니즘을 모델링한 심층신경망 모델의 연산을 가속하는 프로세서 기술이라는 측면에서 넓은 의미의 뉴로모픽 프로세서 기술이라고 볼 수 있다. 2018년 가트너의 최신 기술 하이프사이클에서도 이런 딥러닝 SoC 기술을 떠오르는 신기술로 선정한 바 있다.

또 하나 관심을 가지고 지켜봐야 할 새로운 컴퓨팅 하드웨어 플랫폼 기술은 바로 양자 컴퓨팅이다. 양자 컴퓨팅은 한동안 물리학자들의 머릿속에서만 존재하는 지적인 장난감 정도로만 여겨졌던 것이 사실이다. 캐나다의 D-Wave와 같이 선구적으로 양자 컴퓨터를 만드는 회사와, 구글과 IBM과 같이 최근 양자 컴퓨터 구현에 적극적인 기업들의 노력으로 생각보다 빠르게 현실로 다가오고 있다.

기존의 컴퓨터는 풀지 못했지만 양자 컴퓨터가 해결할 수 있는 문제가 어떤 문제인지는 피터 쇼어(Peter Shor)가 제안한 소수 분해 알고리즘(prime factoring algorithm)과 로브 그로버(Lov Grover)의 검색 알고리즘(Grover’s search algorithm) 외에 큰 진전이 없는 것이 사실이다. 양자 컴퓨팅의 근본인 큐빗이 가지는 내재적 병렬성(inherent parallelism)은 기존 컴퓨터의 순차적 정보처리로는 적절한 시간 안에 끝낼 수 없는 연산을 양자 컴퓨터가 수행할 수 있을 것이라는 기대를 가지게 한다. 양자 컴퓨팅 기술이 어떤 연산에서 기존의 컴퓨터보다 더 나은지를 연구하는 ‘양자 슈프리머시(quantum supremacy)’ 연구는 최근 구글과 IBM, 마이크로소프트 등의 기업들도 적극적으로 연구에 나선 중요한 주제다.

양자 컴퓨팅 기술이 중요한 이유는, 양자 컴퓨팅이 기존의 컴퓨터보다 더 잘하리 예상되는 NP(non-polynomial time algorithms) 문제들에 효과적으로 쓰일 것으로 생각되기 때문이다. 대표적인 NP문제 중 하나가 ‘영업사원 방문 문제(Traveling Salesman’s Problem; TSP)’라고 하는 최적화 문제인데, 이 TSP 문제의 해결책을 주었던 방법은 딥러닝의 근본이 된 최적화 알고리즘인 경사 지향 최적화 알고리즘(gradient-descent optimization)이다. 큐빗(qubit)의 내재적 병렬성의 특성이 TSP 문제와 같이 기존의 컴퓨터로 해결이 어려웠던 최적화 문제의 해결 가능성을 최근 보여주고 있다.

이런 양자 컴퓨팅의 가능성이 최근 양자 기계 학습(quantum machine learning)이라 불리는 새로운 영역으로 확대되고 있다. 양자 컴퓨팅이 최적화 연산에서 기존의 컴퓨터보다 우월할 것이라는 아이디어를, 기계 학습 모델의 학습에 최적화 연산이 핵심 알고리즘으로 사용되는 것에 착안해서 양자 컴퓨팅을 기계 학습 기반 인공지능의 학습에 적용해보고자 하는 것이 양자 기계 학습이다.

양자 기계 학습의 잠재력은 아직 충분하게 밝혀지지 않았지만, 양자 컴퓨팅을 이용한 최적화 알고리즘을 사용하면 기존에 많은 시간이 걸렸던 딥러닝 및 기계 학습 모델의 학습 시간을 대폭 단축하여 기계 학습 기술의 새로운 응용 기술이 탄생할 것으로 기대되고 있다. 무엇보다 인공지능이 훨씬 더 방대하고 다양한 데이터를 학습하여 사람의 지능에 근접한 지능을 가질 수 있게 할 수 있는 기술로서 양자 컴퓨팅 기술이 최근 주목받고 있다.

뉴로모픽 프로세서 기술과 양자 컴퓨팅 기술은 컴퓨터 과학자와 물리학자들의 상상 속에서만 존재하는 기술로 지난 20여 년간 여겨져 왔지만, 컴퓨터 소자 기술의 빠른 발전으로 우리에게 실질적인 도움을 줄 수 있는 기술로 빠르게 성장해가고 있다. 아직은 그 적용이 조금 이르기는 하지만, 빅데이터 비즈니스를 통해 영속적이고 근본적인 비즈니스 모델을 만들어보고자 고민하는 기업들은 관심있게 모니터링하고 그 활용에 대해 고민해야 하는 기술이다.

빅데이터를 활용하려는 데이터 과학자와 데이터 엔지니어들도 이들 뉴로모픽 프로세서 기술과 양자 컴퓨팅 기술이 줄 수 있는 지능형 데이터 처리와 자동화의 장점에 대해서 꾸준히 모니터링하고 활용 방법에 대해 미리 연구해두면 경력 개발에 많은 도움이 될 것으로 보인다. 뉴로모픽 프로세서 기술이 IoT 및 '편재 컴퓨팅(pervasive computing)' 기술과 결합하면 강력한 데이터 수집 수단으로 활용할 수 있다. 양자 컴퓨팅을 이용하면 빅데이터를 활용한 빅AI, 또는 인공지능의 수준을 근본적으로 '양자 도약(quantum jump)'시켜 차별적인 지능형 서비스와 데이터 분석 기술을 만들 수 있다.

뉴로모픽 프로세서와 양자 컴퓨팅이 빅데이터 비즈니스에 줄 수 있는 새로운 가능성에 대해 주목하고 지금부터라도 꾸준히 활용 방법에 대해 고민한다면, 현재의 기업들도 구글이나 우버와 같은 대담한 비즈니스 모델을 실험해볼 수 있는 날이 가까운 미래에 올 것이다. 흥미로운 시대를 사는 우리에게 이들 기술이 줄 수 있는 더 많은 기회에 대해 설렘을 가지고 기대해보는 것도 좋을 것 같다.

[참고문헌]
[1] 김진철, “LHC에서 배우는 빅데이터와 machine learning 활용 방안”, 2016년 9월 28일, A CIO Conversation for Technology Leadership – Breakfast Roundtable 발표 자료
[2] Jincheol Kim, “Towards Singularity: Computing Technology Advances for Artificial Intelligence
- Trends in H/W, S/W and TensorFlow,” Global Mobile Vision 2017, KINTEX, September 13, 2017.
[3] DANIEL TERDIMAN, “IBM's TrueNorth processor mimics the human brain,” CNet.com, 11:00 AM PDT AUGUST 7, 2014. (https://www.cnet.com/news/ibms-truenorth-processor-mimics-the-human-brain/)
[4] Brian Wang, “Neuromorphic and Neurosynaptic Chips,” NextBigFuture.com, October 7, 2011. (https://goo.gl/9NKTgt),
[5] Yu-Hsin Chen, Tushar Krishna, Joel Emer, Vivienne Sze, “Eyeriss - An Energy-Efficient Reconfigurable Accelerator for Deep Convolutional Neural Networks,” The MIT Eyeriss Project Website. (http://eyeriss.mit.edu/)
[6] Ryan Smith, “16GB NVIDIA Tesla V100 Gets Reprieve; Remains in Production,” anandtech.com, 8:00 PM EST, May 24, 2018. (https://www.anandtech.com/show/12809/16gb-nvidia-tesla-v100-gets-reprieve-remains-in-production)
[7] Anshel Sag, “Qualcomm's Zeroth SDK Brings Machine Intelligence To More Than Smartphones,” Forbes.com, 09:00am, May 6, 2016. (https://goo.gl/hjhZhc)
[8] Stacey Higginbotham, “Google Takes Unconventional Route with Homegrown Machine Learning Chips,” TheNextPlatform.com, May 19, 2016. (https://goo.gl/k7vi1B)
[9] VICTORIA WOOLLASTON, “Google tries to save the world: Internet giant explains how its move into quantum computing could solve global warming,” MailOnline.com, 16:32 BST, 15 October 2013. (https://www.dailymail.co.uk/sciencetech/article-2461133/Google-D-Wave-quantum-computing-solve-global-warming.html)
[10] Tiffany Trade, “Requiem for a Phi: Knights Landing Discontinued,” HPCWire.com, July 25, 2018. (https://www.hpcwire.com/2018/07/25/end-of-the-road-for-knights-landing-phi/)
[11] Nick Heath, “Quantum leap: D-Wave's next quantum computing chip offers a 1,000x speed-up,” TechRepublic.com, 2:15 AM PST, September 16, 2016. (http://www.techrepublic.com/article/quantum-leap-d-waves-next-quantum-computing-chip-offers-a-1000x-speed-up/)
[12] Nick Heath, “D-Wave quantum computers: Cheat sheet,” TechRepublic.com, 7:52 AM PST, July 3, 2018. (https://www.techrepublic.com/article/d-wave-quantum-computers-the-smart-persons-guide/)
[13] Rebecca Carney, “Instrumentation for silicon tracking at the HL-LHC,” Licentiate thesis, Stockholm University, May 2017. (https://cds.cern.ch/record/2268992/files/CERN-THESIS-2017-065.pdf)
[14] Rebecca Carney, “Kalman Filter on IBM's TrueNorth,” Connecting The Dots / Intelligent Trackers 2017, LAL-Orsay, Paris, Mar 6 ~ 9, 2017.
[15] R. Fr¨uhwirth, “Application of Kalman filtering to track and vertex fitting,” Nuclear Instruments and Methods in Physics Research Section A: Accelerators, Spectrometers, Detectors and Associated Equipment 262.2 (1987), pp. 444 –450. issn: 0168-9002. doi: http://dx.doi.org/10.1016/0168-9002(87)90887-4. url: http://www.sciencedirect.com/science/article/pii/0168900287908874.
[16] Sioni Summers, “Online track reconstruction using Kalman Filters on FPGAs,” Connecting
the Dots and Workshop on Intelligent Trackers. 2017.
[17] Giuseppe Cerati et al., “Kalman filter tracking on parallel architectures,” 22nd International Conference on Computing in High Energy and Nuclear Physics (CHEP 2016), San Francisco, CA, October 14-16, 2016. 2017. arXiv: 1702.06359. url: https://inspirehep.net/record/1514547/files/arXiv:1702.06359.pdf.
[18] Karlheinz Meier, “Brain inspired computimng in the EU Human Brain Project,” Discussion,
2017.
[19] Bartosz Paprocki and Janusz Szczepanski, “Efficiency of neural transmission as a function of synaptic noise, threshold, and source characteristics,” Biosystems 105.1 (2011), pp. 62 –72. issn: 0303-2647. doi: https://doi.org/10.1016/j.biosystems.
[20] Rudolph Emil Kalman, “A New Approach to Linear Filtering and Prediction Problems,” Transactions of the ASME–Journal of Basic Engineering 82.Series D (1960), pp. 35–45.
[21] Jeroen Schouwenberg, “Kalman Filter Trained Look-Up Tables for the ATLAS Level-1 Topological Missing Transverse Energy Trigger,” MA thesis. Radboud University, 2014.
[22] O. Welch and G. Bishop, An introduction to the Kalman filter, Tech. rep. TR 95-041. UNC-CH, 1995. url: http://www.cs.unc.edu/˜welch/kalman/kalmanIntro.html.
[23] Simon Hayik, Kalman Filtering and Neural Networks, Wiley, 2001. ISBN: 9780471369981.
[24] Chris Eliasmith, Neural Engineering: Computation, Representation, and Dynamics in Neurobiological systems. A Bradford Book, 2004. ISBN: 9780262050715.
 

*김진철 박사는 1997년 한국과학기술원에서 물리학 학사, 1999년 포항공과대학교에서 인공신경망에 대한 연구로 석사 학위를, 2005년 레이저-플라즈마 가속기에 대한 연구로 박사 학위를 받았다. 2005년부터 유럽입자물리학연구소(CERN)의 LHC 데이터 그리드 구축, 개발에 참여, LHC 빅데이터 인프라를 위한 미들웨어 및 데이터 분석 기술을 연구하였다. 이후 한국과학기술정보연구원(KISTI), 포항공과대학교, 삼성SDS를 거쳐 2013년부터 SK텔레콤에서 클라우드 컴퓨팅과 인공지능 기술을 연구하고 있다. 빅데이터와 인공지능 기술의 기업 활용 방안에 대해 최근 다수의 초청 강연 및 컨설팅을 수행하였다. ciokr@idg.co.kr
 
CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.