김진철의 How-to-Big Data | 빅데이터와 클라우드 기술 (4)

CIO KR

CMS Level-1 트리거(Trigger)와 FGPA, GPU 기술
LHC Computing Grid에서 이종(heterogeneous) 자원 관리 문제를 해결하기 위해 처음으로 가상머신을 이용한 자원 가상화 기법을 도입하여 작업 성공률을 획기적으로 개선한 이후, 가상화 기술은 클라우드 컴퓨팅의 핵심 기술로 자리 잡으며 최근 5년간 빠르게 발전해왔다. 하지만, 어떤 기술이든 기술적인 한계는 존재하게 마련이다. 가상화 기술 또한 아직 적용이 어려운 영역이 있는데 이 영역이 바로 실시간 컴퓨팅(real-time computing)과 고성능 컴퓨팅(high-performance computing) 영역이다.

 LHC 가속기와 CMS를 비롯한 검출기들은 모두 실시간 컴퓨팅이 요구되는 미션 크리티컬 시스템(mission-critical system)이다. LHC 가속기와 CMS 검출기가 미션 크리티컬 시스템인 이유는 크게 두 가지이다. 첫 번째로, LHC 가속기와 CMS 등의 검출기 시스템 어느 하나라도 제대로 동작하지 못하면 전체 실험 수행이 불가능하거나 실험을 하여 데이터를 수집했더라도 데이터 품질과 신뢰성을 크게 잃게 되어 의미 있는 실험 데이터 분석이 불가능해진다. 두 번째로, 가속기와 검출기 시스템 곳곳에 방사선이 나오거나 고에너지 입자 빔이 나오는 영역이 있어 제어가 잘못되거나 정상적인 동작이 되지 않으면 사람이 다치거나 죽을 수 있는 사고가 일어날 수 있다.





연재 초반의 지난 두 번째 글에서 잠시 언급한 바와 같이, LHC 가속기에서 가속된 양성자 빔은 초당 약 4천만 번의 충돌을 일으키게 되며, 이 과정에서 나오는 이벤트를 모두 데이터로 기록하게 되면 이벤트당 약 1MB, 초당 약 60TB 이상의 데이터가 나오게 된다[7]. 하지만, 현재 초당 60TB의 데이터를 모두 기록할 수 있는 하드웨어 기술이 없기 때문에, 100kHz의 빈도로 생성되는 데이터 중 1000분의 1의 데이터만 이벤트 재구성을 위해 처리하게 된다.

이렇게 검출기에서 생성되는 데이터를 실시간으로 처리하기 위해서는 수 TFLOPS에서 수십 TFLOPS에 이르는 연산 처리 능력이 필요하다. 검출기 Level-1 트리거에서 데이터를 임시로 저장할 수 있는 시간이 약 3.2 마이크로초에 불과하기 때문에, 3.2 마이크로초라는 짧은 시간에 수집된 데이터에서 물리학적으로 의미가 있는 이벤트들을 선별해서 고수준 트리거(High-Level Trigger)로 보내기 위한 판단을 하기 위해서는 실시간 고성능 컴퓨팅 기술이 필요하게 된다.

Level-1 트리거는 짧은 시간에 많은 연산을 빠르게 수행해야 하는 고성능 컴퓨팅의 요구 사항을 만족해야 함과 동시에, CMS 검출기 시스템의 한 부분으로서, 검출기가 신뢰성 있게 데이터를 수집하고 처리할 수 있도록 Level-1 트리거 시스템 전체가 실시간으로 동기화되어 데이터를 수집하는 실시간 시스템(real-time system)의 요구사항도 만족해야 한다.

이런 고성능 컴퓨팅과 실시간 시스템의 요구사항을 만족시키기 위해서 LHC 가속기와 검출기 하드웨어의 곳곳에서 FPGA가 많이 쓰이고 있다. LHC 실험에서 FPGA를 많이 쓰는 이유는 크게 세 가지다.

첫 번째로, LHC 실험의 요구사항이 산업 표준 컴퓨팅 장비와 기술로는 맞출 수 없는 극한의 요구사항이기 때문에, 이런 독특한 요구사항을 만족하는 칩셋 및 고속 하드웨어 기술을 자체적으로 만들기 위해서 FGPA와 같이 작은 칩 안에 직접 고속 연산 처리 로직을 집적하여 심어 넣을 수 있는 프로그램이 가능한(programmable) 하드웨어가 필요했다.

두 번째로, 일반 컴퓨터와 네트워크만으로는 초당 수 TB의 데이터를, 하나의 이벤트 데이터당 3.2 마이크로초의 짧은 지연 요구사항에 만족하도록 처리해서 저장할 수 없었기 때문에, 가능하면 짧은 지연 시간을 가지도록 이벤트 검출 및 필터링, 이벤트 재구성 등의 연산을 가속할 필요가 있었다.

세 번째로, 극한 조건에서 데이터가 수집되면서 데이터가 유실되거나 품질이 낮아지지 않도록 신뢰성을 높이기 위해 데이터를 수집하는 하드웨어 수준에서부터 신뢰성을 보장하는 논리를 넣기 위해서는 CERN의 연구자들이 원하는 신뢰성 로직을 쉽게 프로그램해서 넣을 수 있는 칩수준의 하드웨어가 필요했다.

단순히 임베디드 컴퓨터를 네트워크로 연결해서 처리하는 수준으로는 Level-1 트리거에서 요구되는 3.2 마이크로초의 짧은 지연시간 내에 수 TB의 이벤트 데이터의 검출, 수집 판단(acceptance decision)을 위한 복잡한 알고리즘 연산을 수행하기 어려웠기 때문에 많은 수의 FPGA를 이용한 자체 제작 하드웨어 보드를 직접 제작하여 사용하고 있다. LHC 가속기 건설과정에서 가장 기술적으로 어려운 부분 중의 하나가, 그림 2에서 보이진 Level-1 트리거를 구성하는 여러 모듈들을 FPGA에 고속 연산을 오프로딩(off-loading)하도록 하는 적절한 전자회로 보드로 디자인하고 구현하여 그 성능과 신뢰성을 확인하고, 이를 검출기 시스템으로 통합하는 일이었다.

LHC 검출기들의 Level-1 트리거 개발이 어려운 이유 중의 또 다른 한 가지는 검출기에 들어간 많은 수의 다양한 센서들을 같이 사용해 입자의 궤적과 정보를 판단, 획득하여야 한다는 점이었다. FPGA에 심은 로직이 아무리 연산이 빠르다고 해도, 이렇게 많은 수의 다양한 센서로부터 입자에 대한 정보를 받아 하나의 FPGA칩이 입자의 궤적과 이벤트를 재구성하는 것은 불가능하다. 수집된 원시 이벤트 데이터를 재구성해서 분석에 적절한 이벤트 데이터로 수집되었는지 판단(acceptance decision)하는 연산을 위해서는 센서로부터 수집된 데이터와 많은 FPGA를 사용해 이벤트 수집 여부 판단(acceptance decision)을 위한 데이터로 재구성해서 수집 여부 판단(acceptance decision) 연산을 하는 FPGA 보드로 전달하여 처리해야 한다.



그림 3에 있는 전역 뮤온 트리거(Global Muon Trigger)와 전역 칼로리미터 트리거(Global Calorimeter Trigger)는 뮤온 트리거와 칼로리미터 트리거의 각 센서 전자회로에서 수집된 데이터를 취합해서 검출기 전 영역에 해당하는 뮤온 이벤트와 입자들의 에너지에 대한 이벤트 정보를 계산하고, 전역 트리거(Global Trigger) 모듈이 적절하게 수집된 원시 이벤트 데이터인지 여부를 최종적으로 판단해서 고수준 트리거로 전달하도록 트리거 제어 시스템(Trigger Control System)에 명령을 내리게 된다.

그림 3의 오른쪽에는 CMS 검출기의 전역 뮤온 트리거의 사진을 보여주고 있다. CMS 검출기의 전역 뮤온 트리거에서만도 벌써 10개의 FPGA가 하나의 보드에서 병렬로 연결되어 CMS 검출기 전 영역의 센서 전자회로에서 전달한 원시 이벤트 데이터를 처리해 이벤트 데이터의 최종 수집 여부를 3.2 마이크로초안에 판단하여 Level-1 트리거 제어 시스템에 내리는 명령을 계산하게 된다.



LHC 가속기는 힉스 보존을 비롯한 새로운 입자들과 이들이 일으키는 상호작용 이벤트들을 정밀하게 수집할 수 있는 확률을 더욱 높이기 위해 현재 LHC 가속기 및 각 검출기들의 성능을 높이는 작업을 하고 있다. 2026년도부터 동작할 업그레이드된 LHC 가속기를 수퍼 LHC(Super-LHC), 또는 고광도 LHC(High-Luminosity LHC)라고 부른다. 빔의 광도(luminosity)가 현재 광도(luminosity)의 20배 이상으로 높아지는 이 수퍼 LHC로 업그레이드되면, 현재 각 검출기에서 일어나는 상호작용 빈도의 20배가 넘는 상호작용이 일어나 이벤트 데이터의 양도 20배 이상 늘어나게 된다. 이 고광도 LHC 운영의 장점을 최대한 살리고자 CMS 검출기도 Level-1 트리거에서의 데이터 샘플링 빈도를 100kHz에서 750kHz로 대폭 향상하도록 계획하고 있다. 다만 데이터의 양이 워낙 많다 보니 트리거 지연 시간은 3.2 마이크로초에서 12.5마이크로초로 3배 이상 늘어날 수밖에 없게 되었다. 이렇게 늘어난 데이터 요구사항에 맞게 데이터를 수집하기 위해 Level-1 트리거의 데이터 수집 전자장치 및 컴퓨팅 시스템의 성능을 같이 업그레이드하고 있다.

수퍼 LHC 가속기와 함께 업그레이드된 CMS 검출기에서 더 빠르고 정밀하게 입자의 궤적을 재구성하기 위해서는 기본의 Level-1 트리거에서 쓰이는 데이터 처리 모듈보다 더 성능이 좋은 고성능 컴퓨팅 시스템이 필요하다. 그림 4의 오른쪽 위에 나타난 Master Processor 7(MP7)이라고 불리는 Level-1 트리거 보드는 현재 CMS 검출기에서 쓰이고 있는 저지연, 고성능 연산용 FPGA 보드이다. 이 MP7 보드 여러 개를 마치 클러스터 컴퓨터와 같이 10Gbps 저지연 광 네트워크(optical network)로 묶어서 750kHz로 7.5배로 늘어난 샘플링 빈도에 따라 늘어나는 데이터 처리를 12.5마이크로초안에 수행할 수 있도록 업그레이드된 시스템을 최근 테스트하여 성공적인 결과를 얻었다[8-10].



FPGA를 이용한 고성능 컴퓨팅 보드를 여러 개 묶어서 클러스터 병렬 컴퓨팅 시스템과 같이 사용하여 늘어나는 데이터 요구사항을 소화하려는 노력과 함께, 최근에 크게 발전하고 있는 범용 GPU 보드와 인텔이 고성능 임베디드 시스템용으로 새롭게 내어놓고 있는 인텔 제온 파이 FPGA 등의 FPGA 기반 고성능 컴퓨팅 플랫폼을 활용하여 수퍼 LHC 실험시 CMS 검출기 Level-1 트리거의 고속 데이터 처리 문제를 해결하려는 연구도 진행되고 있다.

엔비디아에서 내놓은 GPGPU 시스템은 GPU 코어(core) 간 버스 및 인터커넥트 대역폭은 아직 FPGA를 이용한 커스텀 전자회로에 비해 2.3배 낮지만, 단일 연산 보드의 처리량이 기존 FPGA 기반 연산 보드보다 5배 이상 높고, 메모리 버스의 대역폭도 FGPA 기반 연산 보드에 비해 15배 정도 높은 장점이 있다[12-13].

인텔은 CERN의 연구진과 협력하여 자사의 제온 파이 FPGA 제품을 CERN의 데이터 처리에 응용하여 수퍼 LHC의 요구사항을 만족하는 시스템을 만드는 연구를 지원하고 있다. 기존 FPGA를 이용한 자체 제작 전자회로를 개발하는데 3개월 이상이 필요했던 반면, 인텔 제온 파이FPGA 하드웨어에 OpenCL를 이용하여 이벤트 재구성 연산을 구현할 경우 2주일 정도의 시간에 개발 및 테스트할 수 있을 것으로 보고 있다. 또한, 현재 쓰이는 10Gbps 광 인터커넥트(optical interconnect)보다 대역폭이 높은 저지연 인터커넥트인 퀵패스(QuickPath) 버스 기술을 쓰면 더 높은 성능의 이벤트 재구성 연산이 가능할 것으로 보인다[14].


빅데이터 인프라, 고성능 컴퓨팅, 재구성 가능 컴퓨팅(Reconfigurable Computing) – 스트림 처리의 중요성
필자가 FPGA를 이용한 고성능 컴퓨팅 보드를 CERN에서 사용하는 것을 소개하는 이유는 두 가지이다. 첫 번째로, 빅데이터를 고속으로 수집하는 데이터 수집 및 필터링 시스템에는 일반 정보시스템보다 훨씬 높은 성능을 가지는 고성능, 실시간 컴퓨팅 기술이 필요하다는 것이다. 두 번째로, 필자가 두 번째부터 여섯 번째 연재까지 강조했던 빅데이터 비즈니스에서 가장 중요한 과정인 데이터 수집 과정을 효과적으로 지원하는 빅데이터 시스템을 구성하기 위한 필수 요소로서 데이터 수집 단계 초반에서의 데이터 필터링 및 가공을 위한 고성능 데이터 스트림 처리 시스템의 중요성 때문이다.

빅데이터의 4대 특성인 크기(Volume), 속도(Velocity), 다양성(Variety), 정확성(Veracity)에서 데이터 수집 단계에서 많이 나타나는 특성이 바로 속도이다. 빅데이터 비즈니스를 할 때 가장 많이 첨단 기술이 활용되는 영역은 빅데이터 처리, 가공 단계가 아니라, 비즈니스의 연료로 활용될 원시 데이터를 만들어내는 센서 및 데이터 수집 단계와, 데이터 필터링과 같이 비즈니스에 필요한 정보만을 보도록 1차 가공하는 실시간 데이터 스트림 처리 단계이다.

CMS 검출기의 Level-1 트리거는 실시간 데이터 스트림 처리 시스템이다. 수집된 데이터를 모두 저장하여 분석하기에는 LHC Computing Grid의 자원에 제약이 있기 때문에, 목표로 하는 물리학 현상에 대한 정보를 담고 있다고 생각되는 이벤트 데이터만을 선별하여 고수준 트리거로 후속 처리를 넘기게 된다. 이 과정에서 단일 센서 데이터만으로는 목표로 하는 이벤트가 발생했는지 판단이 어렵기 때문에 여러 센서에서 수집된 데이터를 조합, 융합하여 고속으로 데이터를 처리하기 위해 FPGA에 소프트웨어를 개발하여 이식하고, 이러한 FPGA 기반의 고속 데이터 스트림 처리 보드 여러 개를 광 인터커넥트로 연결하여 동시에 병렬 연산을 하여 3.2 마이크로초라는 짧은 지연 시간을 맞추고자 한다.

빅데이터 비즈니스와 시스템에 대한 논의가 많아지면서 한때 빅데이터 스트림 처리에 대한 관심이 높아진 적이 있다. 빅데이터 스트림 처리를 위한 기술로 HP의 Vertica, SAP의 HANA와 같은 인메모리 데이터베이스나 아파치 재단의 스파크, 스톰과 같은 인메모리 프로세싱 프레임워크나 스트림 처리 엔진이 주목받기도 했다.

데이터 수집 과정이나 수집 바로 다음 단계에서 요구되는 빅데이터 스트림 처리 과정에서는 하나의 소프트웨어 도구가 모든 요구 사항을 만족시키기는 어렵다. 빅데이터 스트림 처리가 필요한 단계에서는 하드웨어 아키텍처 수준에서도 데이터 스트림 처리의 요구 사항에 맞는 디자인과 최적화가 필요하며, 이러한 하드웨어 수준부터 스트림 처리를 구현하는 소프트웨어 수준까지의 영역을 아울러 통합하고 최적화할 수 있는 기술이 빅데이터 비즈니스의 핵심 기술 경쟁력으로 자리 잡게 된다.

빅데이터 스트림 처리 시스템을 하드웨어 수준부터 소프트웨어 수준까지 통합하는 역량을 모두 갖추기는 쉽지 않기 때문에 이런 역량이 빅데이터 비즈니스를 수행하는 기업 고유의 기술경쟁력이 될 수 있다. 이에 더해 빅데이터 스트림 처리를 위한 비즈니스 고유의 요구 사항을 발견하고 이를 위해 FPGA를 이용해 자체적인 스트림 처리 하드웨어를 설계하고 구현해낼 수 있는 역량은 갖추기 어렵지만 일단 갖추게 되면 독보적인 기술경쟁력으로 활용할 수 있다.

실제로 고속 데이터 스트림 처리를 위해 나온 주요 IT업체의 제품들은 하드웨어와 소프트웨어가 결합된 어플라이언스 형태가 많았다. 이렇게 데이터 스트림 처리를 위한 대표적인 어플라이언스 제품이 IBM 네티자와 인포스피어 스트림, SAP의 HANA, HP의 버티카, EMC의 그린플럼 데이터 컴퓨팅 어플라이언스 같은 제품들이다. 이들 대기업의 제품 외에도 DataBricks, GridGain, Hazelcast등의 중소기업들이 빅데이터 스트림 처리를 위한 하드웨어와 소프트웨어 제품 기술을 개발하기 위해 노력하고 있다[15].

최근 인텔은 임베디드 시스템에서의 고성능 컴퓨팅 시장의 중요성을 인지하고 제온 파이 FPGA와 같이 FPGA가 제온 CPU와 같이 활용되어 처리 성능을 극대화하는 컴퓨팅 플랫폼 제품을 내놓았다. 고성능 컴퓨팅이 필요한 소프트웨어 로직을 FPGA에 이식하기가 예전보다 많이 편리해졌기 때문에, 과거보다 FPGA를 이용해 빅데이터 처리 로직을 가속하려는 기업도 점차 늘어나고 있다. 특히, 딥러닝를 활용해서 빅데이터를 지능적으로 분류하고 가공하고자 하는 기업이 늘어나면서 딥러닝 연산을 가속하기 위한 방법으로 FPGA 활용이 늘어나고 있다. 앞으로 빅데이터와 빅데이터 처리를 위한 딥러닝 기반의 인공지능 기술 개발에서의 FPGA의 중요성은 점점 더 높아지게 될 것이다.

FPGA와 함께 최근 주목받고 있는 고성능 컴퓨팅 기술로 엔비디아의 범용 GPU(GPGPU)를 들 수 있다. GPGPU는 원래 시뮬레이션과 딥러닝을 위한 가속기술로 주목을 많이 받았지만, 임베디드 시스템에서의 데이터 처리량이 늘어나면서 임베디드 시스템에서의 고성능 컴퓨팅 기술로도 주목받고 있다. CERN에서도 FPGA만으로는 고성능 데이터 연산 처리량의 한계를 느끼면서 최근 물리적 방법론에 기반을 둔 이벤트 실시간 분류 및 검출 판단(physics-based event triggering)에 GPGPU를 활용하는 방법을 연구개발하고 있다. 또한, 최근 발전하는 딥러닝 기술을 활용해 검출기의 이벤트 데이터를 좀더 지능적으로 판단, 분류하여 물리학자들이 미처 예측하지 못한 의미 있는 입자물리학적 이벤트를 찾아내는 문제에도 GPGPU를 활용하려고 한다는 것은 지난 여덟 번째 연재에서 소개한 바 있다.

인텔의 제온 파이 FPGA를 만약 LHC 건설 당시에 사용할 수 있었다면 CMS 검출기의 Level-1 트리거를 위한 개발 시간과 비용이 지금보다 많이 줄어들 수 있었을지도 모른다. LHC 건설 당시에는 이런 제온 파이 FPGA와 같은 임베디드 시스템을 위한 고성능 컴퓨팅 플랫폼이 없었기 때문에 요구 사항에 맞는 하드웨어를 직접 디자인해서 제작해야 해서 개발 기간이 길어지고 장치의 단가가 많이 높아져 비용이 많이 들었다. 앞으로 인텔의 제온 파이 FPGA나 엔비디아의 GPGPU 하드웨어인 TESLA GPU 보드와 같은 범용 제품을 쓰게 되면 LHC의 요구사항에 맞는 빅데이터 처리 시스템을 구축하는데 시간과 비용을 크게 단축할 수 있을 것으로 LHC 연구자들은 기대하고 있다[14].
 

---------------------------------------------------------------
김진철 칼럼 인기기사
-> 김진철의 How-to-Big Data | 연재를 시작하며
-> 김진철의 How-to-Big Data | 빅데이터 활용의 근본적인 질문 - 해결하려는 문제가 무엇인가?
-> 김진철의 How-to-Big Data | 빅데이터 수집에 관한 생각 (1)
-> 김진철의 How-to-Big Data | 빅데이터 수집에 관한 생각 (2)
-> 김진철의 How-to-Big Data | 빅데이터 수집에 관한 생각 (3)
---------------------------------------------------------------

빅데이터 비즈니스를 잘 하는 방법은 빅데이터 가공 초기에 가능하면 빅데이터를 없애고 기업의 비즈니스 목표에 맞는 핵심 정보만을 빅데이터로부터 얻어 빠르게 비즈니스 운영에 활용하는 것이다. 빅데이터 수집 단계부터 불필요한 빅데이터를 없애고, 핵심 정보만을 빠르게 추려낼 수 있는 고성능 컴퓨팅 시스템과 빅데이터 스트림 처리 시스템은 이런 측면에서 중요하다. FPGA와 GPGPU를 활용한 고성능 컴퓨팅 시스템과 각 기업 고유의 빅데이터 비즈니스 요구 사항을 만족시킬 수 있는 빅데이터 스트림 처리 소프트웨어의 최적화 및 통합 역량은 빅데이터 비즈니스의 불필요한 데이터 처리 부하를 줄이고 비즈니스 실행 스피드를 높이는 데 크게 기여할 것이다.

FPGA와 GPGPU를 활용한 고성능 컴퓨팅 시스템과 이에 최적화된 빅데이터 스트림 처리 기술은 아직 클라우드 서비스화하기에는 어려운 영역이다. 과거 ProfitBricks와 같이 고성능 컴퓨팅 인프라를 클라우드 서비스화하여 성공한 전문 클라우드 서비스 회사들도 있기는 하였으나, 데이터 수집 장치에 인접한 고성능 컴퓨팅 시스템은 그 성능 요구사항이 높고, 데이터센터에 자원을 둘 수 없으며, 아직 LTE망과 유선 네트워크의 대역폭과 지연(latency)이 데이터 수집 장치의 실시간 컴퓨팅 요구 사항을 만족하기가 어려운 경우가 많아 클라우드 서비스화하기 어렵다.

이 때문에 데이터 수집 단계부터 고성능 컴퓨팅 기술과 빅데이터 스트림 처리 기술을 도입하려는 기업들은 FPGA 및 GPGPU 등을 사용하는 고성능 임베디드 컴퓨팅 플랫폼 기반의 고속 데이터 처리 하드웨어 구축과 빅데이터 스트림 처리 소프트웨어와의 통합 역량을 같이 갖추는 것이 빅데이터 비즈니스의 기술경쟁력 확보에 도움이 될 수 있다.

최근 자율주행 기술과 딥러닝 기술의 발전으로 빠르게 발전하고 있는 고성능 임베디드 컴퓨팅 플랫폼과 빅데이터 스트림 처리 소프트웨어 기술들로 빅데이터를 활용하려는 일반 기업들이 빅데이터 스트림 처리 활용 역량을 갖추기까지의 시간, 비용도 많이 줄어들어 빅데이터 스트림 처리 기술의 빅데이터 비즈니스 활용 성공사례도 점차 늘어날 것으로 보인다. 이에 따라 빅데이터에서 빠르게 정보와 가치를 얻어낼 수 있도록 돕는 고성능 컴퓨팅 기술과 이를 이용한 빅데이터 스트림 처리 기술의 가치도 더 높아지면서 빅데이터 기술 스타트업들과 회사들의 비즈니스 기회도 더 다양해질 것으로 보인다.

[참고문헌]
[1] 김진철, “LHC에서 배우는 빅데이터와 machine learning 활용 방안”, 2016년 9월 28일, A CIO Conversation for Technology Leadership – Breakfast Roundtable 발표 자료
[2] 김진철, “Towards Singularity: Computing Technology Advances for Artificial 인텔ligence
- Trends in H/W, S/W and TensorFlow -,” 2017 Global Mobile Vision Conference, KINTEX, 2017.
[3] Wesley H. Smith, “Triggering CMS,” Seminar at Texas A&M University, April 20, 2011.
[4] Jessica Hall, “The Large Hadron Collider is running out of disk space,” ExtremeTech, October 3, 2016. (https://goo.gl/ghtgAZ)
[5] Thomas Lenzi, Gilles De Lentdecker, “Development and Study of Different Muon Track Reconstruction Algorithms for the Level-1 Trigger for the CMS Muon Upgrade with GEM Detectors,” Master Thesis, Université Libre de Bruxelles, May, 2013.
[6] Hannes Sakulin, Anton Taurok, “Global Muon Trigger,” 2007. (https://goo.gl/BMLDjq)
[7] Alex Tapper, “Trigger, DAQ and FPGAs,” Graduate Lecture, 2017. (https://goo.gl/pUMLD7)
[8] Davide Cieri, “AN FPGA-BASED TRACK FINDER FOR THE L1 TRIGGER OF THE CMS EXPERIMENT AT HL-LHC,” TWEPP 2017 (UC Santa Cruz), September 11, 2017.
[9] Anders Ryd, “CMS FPGA Based Tracklet Approach for L1 Track Finding,” Presentation at 2017 Americas Workshop on Linear Colliders, June 29, 2017. (https://goo.gl/hkwyXU)
[10] Mark Pesaresi, “An FPGA based track finder at Level 1 for CMS at the High Luminosity LHC,” Presentation at Topical Workship on Electronics for Particle Physics 2016 (TWEPP’16), September 29, 2016. (https://goo.gl/XjwQvR)
[11] V. Halyo, A. Hunt, P. Jindal, P. LeGresley, P. Lujan, “GPU Enhancement of the Trigger to Extend Physics Reach at the LHC,” arXiv:1305.4855, August 14, 2013. (https://goo.gl/FNkk7a)
[12] Hannes Mohr, “Evaluation of GPU-based track-triggering for the CMS detector at CERN’s HL-LHC,” Master Thesis, Faculty for Physics, Karlsruhe Institute of Technology, 2016. (https://goo.gl/e9EAda)
[13] H. Mohr, T. Dritschler, L. E. Ardila, M. Balzer, M. Caselle, S. Chilingaryan, A. Kopmann, L. Rota, T. Schuh, M. Vogelgesang, “Evaluation of GPUs as a level-1 track trigger for the High-Luminosity LHC,” Journal of Instrumentation, Vol. 12, April 2017. (https://goo.gl/4o7JJo)
[14] Sean Thielen, “인텔 Collaborates with CERN to Support Upgraded LHC Experiments,” HPC Wire, November 4, 2016. (https://goo.gl/M6WgQX)
[15] Matt Turck, “Firing on All Cylinders: The 2017 Big Data Landscape,” April 5, 2017 (https://goo.gl/CQucxc).

 

 
* 김진철 박사는 1997년 한국과학기술원에서 물리학 학사, 1999년 포항공과대학교에서 인공신경망에 대한 연구로 석사 학위를, 2005년 레이저-플라즈마 가속기에 대한 연구로 박사 학위를 받았다. 2005년부터 유럽입자물리학연구소(CERN)의 LHC 데이터 그리드 구축, 개발에 참여, LHC 빅데이터 인프라를 위한 미들웨어 및 데이터 분석 기술을 연구하였다. 이후 한국과학기술정보연구원(KISTI), 포항공과대학교, 삼성SDS를 거쳐 2013년부터 SK텔레콤에서 클라우드 컴퓨팅과 인공지능 기술을 연구하고 있다. 빅데이터와 인공지능 기술의 기업 활용 방안에 대해 최근 다수의 초청 강연 및 컨설팅을 수행하였다. ciokr@idg.c.kr