Offcanvas

CIO / How To / 머신러닝|딥러닝 / 비즈니스|경제 / 빅데이터 | 애널리틱스 / 클라우드

김진철의 How-to-Big Data | 빅데이터와 클라우드 기술 (4)

2017.12.27 김진철  |  CIO KR


빅데이터 인프라, 고성능 컴퓨팅, 재구성 가능 컴퓨팅(Reconfigurable Computing) – 스트림 처리의 중요성
필자가 FPGA를 이용한 고성능 컴퓨팅 보드를 CERN에서 사용하는 것을 소개하는 이유는 두 가지이다. 첫 번째로, 빅데이터를 고속으로 수집하는 데이터 수집 및 필터링 시스템에는 일반 정보시스템보다 훨씬 높은 성능을 가지는 고성능, 실시간 컴퓨팅 기술이 필요하다는 것이다. 두 번째로, 필자가 두 번째부터 여섯 번째 연재까지 강조했던 빅데이터 비즈니스에서 가장 중요한 과정인 데이터 수집 과정을 효과적으로 지원하는 빅데이터 시스템을 구성하기 위한 필수 요소로서 데이터 수집 단계 초반에서의 데이터 필터링 및 가공을 위한 고성능 데이터 스트림 처리 시스템의 중요성 때문이다.

빅데이터의 4대 특성인 크기(Volume), 속도(Velocity), 다양성(Variety), 정확성(Veracity)에서 데이터 수집 단계에서 많이 나타나는 특성이 바로 속도이다. 빅데이터 비즈니스를 할 때 가장 많이 첨단 기술이 활용되는 영역은 빅데이터 처리, 가공 단계가 아니라, 비즈니스의 연료로 활용될 원시 데이터를 만들어내는 센서 및 데이터 수집 단계와, 데이터 필터링과 같이 비즈니스에 필요한 정보만을 보도록 1차 가공하는 실시간 데이터 스트림 처리 단계이다.

CMS 검출기의 Level-1 트리거는 실시간 데이터 스트림 처리 시스템이다. 수집된 데이터를 모두 저장하여 분석하기에는 LHC Computing Grid의 자원에 제약이 있기 때문에, 목표로 하는 물리학 현상에 대한 정보를 담고 있다고 생각되는 이벤트 데이터만을 선별하여 고수준 트리거로 후속 처리를 넘기게 된다. 이 과정에서 단일 센서 데이터만으로는 목표로 하는 이벤트가 발생했는지 판단이 어렵기 때문에 여러 센서에서 수집된 데이터를 조합, 융합하여 고속으로 데이터를 처리하기 위해 FPGA에 소프트웨어를 개발하여 이식하고, 이러한 FPGA 기반의 고속 데이터 스트림 처리 보드 여러 개를 광 인터커넥트로 연결하여 동시에 병렬 연산을 하여 3.2 마이크로초라는 짧은 지연 시간을 맞추고자 한다.

빅데이터 비즈니스와 시스템에 대한 논의가 많아지면서 한때 빅데이터 스트림 처리에 대한 관심이 높아진 적이 있다. 빅데이터 스트림 처리를 위한 기술로 HP의 Vertica, SAP의 HANA와 같은 인메모리 데이터베이스나 아파치 재단의 스파크, 스톰과 같은 인메모리 프로세싱 프레임워크나 스트림 처리 엔진이 주목받기도 했다.

데이터 수집 과정이나 수집 바로 다음 단계에서 요구되는 빅데이터 스트림 처리 과정에서는 하나의 소프트웨어 도구가 모든 요구 사항을 만족시키기는 어렵다. 빅데이터 스트림 처리가 필요한 단계에서는 하드웨어 아키텍처 수준에서도 데이터 스트림 처리의 요구 사항에 맞는 디자인과 최적화가 필요하며, 이러한 하드웨어 수준부터 스트림 처리를 구현하는 소프트웨어 수준까지의 영역을 아울러 통합하고 최적화할 수 있는 기술이 빅데이터 비즈니스의 핵심 기술 경쟁력으로 자리 잡게 된다.

빅데이터 스트림 처리 시스템을 하드웨어 수준부터 소프트웨어 수준까지 통합하는 역량을 모두 갖추기는 쉽지 않기 때문에 이런 역량이 빅데이터 비즈니스를 수행하는 기업 고유의 기술경쟁력이 될 수 있다. 이에 더해 빅데이터 스트림 처리를 위한 비즈니스 고유의 요구 사항을 발견하고 이를 위해 FPGA를 이용해 자체적인 스트림 처리 하드웨어를 설계하고 구현해낼 수 있는 역량은 갖추기 어렵지만 일단 갖추게 되면 독보적인 기술경쟁력으로 활용할 수 있다.

실제로 고속 데이터 스트림 처리를 위해 나온 주요 IT업체의 제품들은 하드웨어와 소프트웨어가 결합된 어플라이언스 형태가 많았다. 이렇게 데이터 스트림 처리를 위한 대표적인 어플라이언스 제품이 IBM 네티자와 인포스피어 스트림, SAP의 HANA, HP의 버티카, EMC의 그린플럼 데이터 컴퓨팅 어플라이언스 같은 제품들이다. 이들 대기업의 제품 외에도 DataBricks, GridGain, Hazelcast등의 중소기업들이 빅데이터 스트림 처리를 위한 하드웨어와 소프트웨어 제품 기술을 개발하기 위해 노력하고 있다[15].

최근 인텔은 임베디드 시스템에서의 고성능 컴퓨팅 시장의 중요성을 인지하고 제온 파이 FPGA와 같이 FPGA가 제온 CPU와 같이 활용되어 처리 성능을 극대화하는 컴퓨팅 플랫폼 제품을 내놓았다. 고성능 컴퓨팅이 필요한 소프트웨어 로직을 FPGA에 이식하기가 예전보다 많이 편리해졌기 때문에, 과거보다 FPGA를 이용해 빅데이터 처리 로직을 가속하려는 기업도 점차 늘어나고 있다. 특히, 딥러닝를 활용해서 빅데이터를 지능적으로 분류하고 가공하고자 하는 기업이 늘어나면서 딥러닝 연산을 가속하기 위한 방법으로 FPGA 활용이 늘어나고 있다. 앞으로 빅데이터와 빅데이터 처리를 위한 딥러닝 기반의 인공지능 기술 개발에서의 FPGA의 중요성은 점점 더 높아지게 될 것이다.

FPGA와 함께 최근 주목받고 있는 고성능 컴퓨팅 기술로 엔비디아의 범용 GPU(GPGPU)를 들 수 있다. GPGPU는 원래 시뮬레이션과 딥러닝을 위한 가속기술로 주목을 많이 받았지만, 임베디드 시스템에서의 데이터 처리량이 늘어나면서 임베디드 시스템에서의 고성능 컴퓨팅 기술로도 주목받고 있다. CERN에서도 FPGA만으로는 고성능 데이터 연산 처리량의 한계를 느끼면서 최근 물리적 방법론에 기반을 둔 이벤트 실시간 분류 및 검출 판단(physics-based event triggering)에 GPGPU를 활용하는 방법을 연구개발하고 있다. 또한, 최근 발전하는 딥러닝 기술을 활용해 검출기의 이벤트 데이터를 좀더 지능적으로 판단, 분류하여 물리학자들이 미처 예측하지 못한 의미 있는 입자물리학적 이벤트를 찾아내는 문제에도 GPGPU를 활용하려고 한다는 것은 지난 여덟 번째 연재에서 소개한 바 있다.

인텔의 제온 파이 FPGA를 만약 LHC 건설 당시에 사용할 수 있었다면 CMS 검출기의 Level-1 트리거를 위한 개발 시간과 비용이 지금보다 많이 줄어들 수 있었을지도 모른다. LHC 건설 당시에는 이런 제온 파이 FPGA와 같은 임베디드 시스템을 위한 고성능 컴퓨팅 플랫폼이 없었기 때문에 요구 사항에 맞는 하드웨어를 직접 디자인해서 제작해야 해서 개발 기간이 길어지고 장치의 단가가 많이 높아져 비용이 많이 들었다. 앞으로 인텔의 제온 파이 FPGA나 엔비디아의 GPGPU 하드웨어인 TESLA GPU 보드와 같은 범용 제품을 쓰게 되면 LHC의 요구사항에 맞는 빅데이터 처리 시스템을 구축하는데 시간과 비용을 크게 단축할 수 있을 것으로 LHC 연구자들은 기대하고 있다[14].
 


빅데이터 비즈니스를 잘 하는 방법은 빅데이터 가공 초기에 가능하면 빅데이터를 없애고 기업의 비즈니스 목표에 맞는 핵심 정보만을 빅데이터로부터 얻어 빠르게 비즈니스 운영에 활용하는 것이다. 빅데이터 수집 단계부터 불필요한 빅데이터를 없애고, 핵심 정보만을 빠르게 추려낼 수 있는 고성능 컴퓨팅 시스템과 빅데이터 스트림 처리 시스템은 이런 측면에서 중요하다. FPGA와 GPGPU를 활용한 고성능 컴퓨팅 시스템과 각 기업 고유의 빅데이터 비즈니스 요구 사항을 만족시킬 수 있는 빅데이터 스트림 처리 소프트웨어의 최적화 및 통합 역량은 빅데이터 비즈니스의 불필요한 데이터 처리 부하를 줄이고 비즈니스 실행 스피드를 높이는 데 크게 기여할 것이다.

FPGA와 GPGPU를 활용한 고성능 컴퓨팅 시스템과 이에 최적화된 빅데이터 스트림 처리 기술은 아직 클라우드 서비스화하기에는 어려운 영역이다. 과거 ProfitBricks와 같이 고성능 컴퓨팅 인프라를 클라우드 서비스화하여 성공한 전문 클라우드 서비스 회사들도 있기는 하였으나, 데이터 수집 장치에 인접한 고성능 컴퓨팅 시스템은 그 성능 요구사항이 높고, 데이터센터에 자원을 둘 수 없으며, 아직 LTE망과 유선 네트워크의 대역폭과 지연(latency)이 데이터 수집 장치의 실시간 컴퓨팅 요구 사항을 만족하기가 어려운 경우가 많아 클라우드 서비스화하기 어렵다.

이 때문에 데이터 수집 단계부터 고성능 컴퓨팅 기술과 빅데이터 스트림 처리 기술을 도입하려는 기업들은 FPGA 및 GPGPU 등을 사용하는 고성능 임베디드 컴퓨팅 플랫폼 기반의 고속 데이터 처리 하드웨어 구축과 빅데이터 스트림 처리 소프트웨어와의 통합 역량을 같이 갖추는 것이 빅데이터 비즈니스의 기술경쟁력 확보에 도움이 될 수 있다.

최근 자율주행 기술과 딥러닝 기술의 발전으로 빠르게 발전하고 있는 고성능 임베디드 컴퓨팅 플랫폼과 빅데이터 스트림 처리 소프트웨어 기술들로 빅데이터를 활용하려는 일반 기업들이 빅데이터 스트림 처리 활용 역량을 갖추기까지의 시간, 비용도 많이 줄어들어 빅데이터 스트림 처리 기술의 빅데이터 비즈니스 활용 성공사례도 점차 늘어날 것으로 보인다. 이에 따라 빅데이터에서 빠르게 정보와 가치를 얻어낼 수 있도록 돕는 고성능 컴퓨팅 기술과 이를 이용한 빅데이터 스트림 처리 기술의 가치도 더 높아지면서 빅데이터 기술 스타트업들과 회사들의 비즈니스 기회도 더 다양해질 것으로 보인다.

[참고문헌]
[1] 김진철, “LHC에서 배우는 빅데이터와 machine learning 활용 방안”, 2016년 9월 28일, A CIO Conversation for Technology Leadership – Breakfast Roundtable 발표 자료
[2] 김진철, “Towards Singularity: Computing Technology Advances for Artificial 인텔ligence
- Trends in H/W, S/W and TensorFlow -,” 2017 Global Mobile Vision Conference, KINTEX, 2017.
[3] Wesley H. Smith, “Triggering CMS,” Seminar at Texas A&M University, April 20, 2011.
[4] Jessica Hall, “The Large Hadron Collider is running out of disk space,” ExtremeTech, October 3, 2016. (https://goo.gl/ghtgAZ)
[5] Thomas Lenzi, Gilles De Lentdecker, “Development and Study of Different Muon Track Reconstruction Algorithms for the Level-1 Trigger for the CMS Muon Upgrade with GEM Detectors,” Master Thesis, Université Libre de Bruxelles, May, 2013.
[6] Hannes Sakulin, Anton Taurok, “Global Muon Trigger,” 2007. (https://goo.gl/BMLDjq)
[7] Alex Tapper, “Trigger, DAQ and FPGAs,” Graduate Lecture, 2017. (https://goo.gl/pUMLD7)
[8] Davide Cieri, “AN FPGA-BASED TRACK FINDER FOR THE L1 TRIGGER OF THE CMS EXPERIMENT AT HL-LHC,” TWEPP 2017 (UC Santa Cruz), September 11, 2017.
[9] Anders Ryd, “CMS FPGA Based Tracklet Approach for L1 Track Finding,” Presentation at 2017 Americas Workshop on Linear Colliders, June 29, 2017. (https://goo.gl/hkwyXU)
[10] Mark Pesaresi, “An FPGA based track finder at Level 1 for CMS at the High Luminosity LHC,” Presentation at Topical Workship on Electronics for Particle Physics 2016 (TWEPP’16), September 29, 2016. (https://goo.gl/XjwQvR)
[11] V. Halyo, A. Hunt, P. Jindal, P. LeGresley, P. Lujan, “GPU Enhancement of the Trigger to Extend Physics Reach at the LHC,” arXiv:1305.4855, August 14, 2013. (https://goo.gl/FNkk7a)
[12] Hannes Mohr, “Evaluation of GPU-based track-triggering for the CMS detector at CERN’s HL-LHC,” Master Thesis, Faculty for Physics, Karlsruhe Institute of Technology, 2016. (https://goo.gl/e9EAda)
[13] H. Mohr, T. Dritschler, L. E. Ardila, M. Balzer, M. Caselle, S. Chilingaryan, A. Kopmann, L. Rota, T. Schuh, M. Vogelgesang, “Evaluation of GPUs as a level-1 track trigger for the High-Luminosity LHC,” Journal of Instrumentation, Vol. 12, April 2017. (https://goo.gl/4o7JJo)
[14] Sean Thielen, “인텔 Collaborates with CERN to Support Upgraded LHC Experiments,” HPC Wire, November 4, 2016. (https://goo.gl/M6WgQX)
[15] Matt Turck, “Firing on All Cylinders: The 2017 Big Data Landscape,” April 5, 2017 (https://goo.gl/CQucxc).

 

 
* 김진철 박사는 1997년 한국과학기술원에서 물리학 학사, 1999년 포항공과대학교에서 인공신경망에 대한 연구로 석사 학위를, 2005년 레이저-플라즈마 가속기에 대한 연구로 박사 학위를 받았다. 2005년부터 유럽입자물리학연구소(CERN)의 LHC 데이터 그리드 구축, 개발에 참여, LHC 빅데이터 인프라를 위한 미들웨어 및 데이터 분석 기술을 연구하였다. 이후 한국과학기술정보연구원(KISTI), 포항공과대학교, 삼성SDS를 거쳐 2013년부터 SK텔레콤에서 클라우드 컴퓨팅과 인공지능 기술을 연구하고 있다. 빅데이터와 인공지능 기술의 기업 활용 방안에 대해 최근 다수의 초청 강연 및 컨설팅을 수행하였다. ciokr@idg.c.kr
CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.