Offcanvas

AI / How To / 빅데이터 | 애널리틱스 / 오픈소스 / 클라우드

김진철의 How-to-Big Data | 빅데이터의 미래 (4)

2020.02.27 김진철  |  CIO KR

 
사이버 물리 시스템, 베어메탈(bare-metal) 컴퓨팅과 고성능 컴퓨팅
세번째로 사이버 물리 시스템과 클라우드 컴퓨팅과의 관계에서 좀더 생각해볼 것은 클라우드 컴퓨팅에서 베어메탈(bare-metal) 컴퓨팅 자원과 고성능 컴퓨팅 자원의 클라우드 컴퓨팅 서비스화 및 통합과 관련된 문제이다.

클라우드 컴퓨팅 기술이 고속 성장하던 2011년부터 2014년까지 사람들 사이에 많이 언급되었던 문제 중의 하나는 베어메탈(bare-metal) 컴퓨팅 자원의 클라우드 컴퓨팅 서비스화였다. 사실 이 문제는 클라우드 컴퓨팅의 핵심인 가상화 기술을 이용한 이종 자원의 통합 및 컴퓨팅 자원의 프로그램 가능성(programmability)과 상충되는 문제이다.

클라우드 컴퓨팅의 개념이 정립되고 발전되어 가던 2011년부터 2014년의 기간 동안 아마존 웹 서비스의 아성에 도전하고 틈새시장에서 새로운 클라우드 컴퓨팅 비즈니스 모델을 시도하는 많은 중소규모 클라우드 컴퓨팅 스타트업과 회사들이 생겨났다. 이들 중소 클라우드 컴퓨팅 기업들이 틈새시장과 차별화 요소로서 많이 고려했던 문제 중의 하나가 베어메탈(bare-metal) 자원의 클라우드 컴퓨팅 서비스화이다.

베어메탈(bare-metal) 클라우드 컴퓨팅은 가상 머신, 리눅스 컨테이너 등의 가상화 기술을 사용하지 않고 클라우드 컴퓨팅의 멀티테넌시(multi-tenancy)와 자원 활용의 신축성(elasticity), 주문형 자원 제공(on-demand computing) 등의 혜택을 제공하는 것이 목적이다. 클라우드 컴퓨팅의 멀티테넌시(multi-tenancy)와 자원 신축성을 제공하게끔 해주는 주요 핵심 기술이 바로 가상화 기술인데, 가상화 기술을 사용하지 않고 멀티테넌시(multi-tenancy)와 자원 신축성을 제공하게끔 클라우드 컴퓨팅 시스템을 디자인, 구현해야 하니 사실은 기술적으로 쉽지 않은 문제였기 때문에 기술적인 차별화로 고려할 만한 문제였다.

비즈니스 측면에서 베어메탈(bare-metal) 컴퓨팅 자원의 클라우드 컴퓨팅 서비스화가 당시 중요했던 이유 중의 하나는 가상화된 컴퓨팅 자원이 요구사항에 맞지 않는 일부 영역, 예를 들면 하드웨어 성능을 최대한 끌어내어 활용해야 하는 과학기술 및 엔지니어링 고성능 컴퓨팅, 서버 사이드 FPGA 컴퓨팅, 아직도 가상화가 쉽지 않은 GPU 컴퓨팅, 저 수준(low-level) 하드웨어 기능을 직접 활용하여 사용해야 하거나 컴퓨팅 자원이 하드웨어와 긴밀하게 통합되어 미션 크리티컬 연산을 수행해야 하는 제어용 컴퓨팅 등의 분야에 베어메탈(bare-metal) 자원의 높은 성능을 보장하면서 클라우드 컴퓨팅 서비스의 장점을 제공하면 비즈니스 가치를 제공할 수 있었기 때문이다.

요즘은 빅데이터 처리와 분석을 위한 컴퓨팅 자원을 클라우드 컴퓨팅을 통해 사용하는 것이 크게 이상하지 않고 오히려 널리 확산되는 추세지만, 2011년부터 2014년까지 빅데이터 처리를 위한 컴퓨팅 인프라는 클라우드 컴퓨팅을 통해 사용하기에는 성능상의 손실이 많다고 보아 그렇게 반기지 않았다. 당시만 해도 빅데이터 처리를 위한 컴퓨팅 인프라는 베어메탈(bare-metal) 자원을 사용하는 것을 선호하였기 때문에 IBM의 네티자(Netezza) 어플라이언스나 스마트 애널리틱스 어플라이언스, EMC가 인수한 그린플럼(GreenPlum)의 하둡 배포판을 사용한 그린플럼 데이터 컴퓨팅 어플라이언스(EMC GreenPlum DCA), 오라클의 엑살리틱스 어플라이언스(Exalytics Appliance), HP의 버티카 어플라이언스(Vertica Appliance) 등 당시 쟁쟁한 주요 IT업체들이 빅데이터를 위한 베어메탈(bare-metal) 컴퓨팅을 위해 어플라이언스 제품을 경쟁적으로 내어놓기도 하였다.

위의 빅데이터 어플라이언스 제품들은 여전히 IT회사들이 빅데이터를 위한 솔루션으로 제공하고 있는 제품들이며, 많은 기업들이 온프레미스(on-premise) 빅데이터 컴퓨팅을 위해서 사용하고 있다. 다만, 최근 클라우드 컴퓨팅이 성숙하면서 꼭 비싼 어플라이언스 제품이나 온프레미스(on-premise) 베어메탈(bare-metal) 컴퓨팅을 써야할 만큼 저지연과 높은 성능이 요구되는 빅데이터 처리가 아닌 일반적인 데이터 과학 응용 분야에서는 클라우드 컴퓨팅을 이용해 빅데이터를 다루는 것이 확산되는 추세이다.

지금까지 빅데이터 붐과 클라우드 컴퓨팅의 발전 과정을 거쳐오면서 빅데이터와 고성능 컴퓨팅을 위한 컴퓨팅 자원으로 아직까지도 베어메탈(bare-metal) 컴퓨팅 자원과 고성능의 어플라이언스 제품이 사용되고, 슈퍼컴퓨터와 고성능 컴퓨터를 이용한 과학기술과 엔지니어링 컴퓨팅이 여전히 사라지지 않고 사용되고 있는 것은 베어메탈(bare-metal) 컴퓨팅이 중요한 분야가 여전히 있고 가치를 가지고 있다는 것을 보여주는 것이다.

보통 국립 슈퍼컴퓨팅 센터와 같은 특별한 장소에 슈퍼컴퓨팅만을 위한 특별한 고성능 네트워크 장비와 인프라, 그리고 슈퍼컴퓨팅에 최적화된 하드웨어 구성과 조합을 이용해 구축하여 사용하는 슈퍼컴퓨터와 같은 장비를 보다 많은 사용자들이 편리하게 사용할 수 있도록 클라우드 컴퓨팅화를 하려는 노력이 지금까지 많이 이루어졌다. 그렇지만, 그 노력에 비해 클라우드 컴퓨팅 서비스화가 어렵고 성과가 뚜렷이 나타나지 않았다. 이런 어려움은 베어메탈(bare-metal) 컴퓨팅의 클라우드 서비스화가 비록 그 시장이 틈새시장이기는 해도 기술적인 가치와 함께 비즈니스 가치도 가지고 있다는 것을 분명하게 보여주는 것으로 볼 수 있다.

사이버 물리 시스템에서도 베어메탈(bare-metal) 컴퓨팅의 중요성은 무시할 수 없다. 사이버 물리 시스템이 활용되는 분야에 따라 특히 자율주행과 항공과 같이 사용자의 안전이 보장되어야 하거나, 국방과 기상 서비스와 같이 공공성이 강조되고 사용되는 장비가 고가이며 특정한 용도에 특화된 경우, 어쩔 수 없이 베어메탈(bare-metal) 컴퓨팅을 사용하지 않을 수 없다.

현재 클라우드 컴퓨팅이 데이터센터를 중심으로 한 서버 사이드 응용 프로그램과 서비스 산업을 중심으로 많이 활용되고 있으면서 에지 컴퓨팅 영역으로 조금씩 확산되고 있는 것과 같이, 사이버 물리 시스템 발전의 초반에도 사이버 물리 시스템에 사용되는 컴퓨팅 자원들 모두가 클라우드 컴퓨팅 시스템으로 전환되어 있지 않을 가능성이 높다. 

클라우드 컴퓨팅 기술이 사이버 물리 시스템의 자원 활용과 통합, 관리에 많은 이점과 유연성을 주기 때문에 결국은 많이 활용되겠지만 사이버 물리 시스템의 부분부분에 베어메탈(bare-metal) 컴퓨팅이 필요한 부분과 아직은 클라우드 컴퓨팅 기술이 완전하게 들어오지 않은 에지 컴퓨팅 시스템들도 사이버 물리 시스템에 통합되어야 한다. 이 때문에 클라우드 컴퓨팅이 모든 컴퓨팅 시스템의 컴퓨팅 자원 관리를 위한 기본 기술로서 사용되기 전의 과도기에는 어쩔 수 없이 베어메탈(bare-metal) 컴퓨팅 자원과 클라우드 컴퓨팅 자원의 흠 없는 통합과 관리를 위한 기술이 필요하게 된다.
 
위에 더해 특정한 목적으로 구축, 운영되는 사이버 물리 시스템에서는 클라우드 컴퓨팅의 활용이 당분간 아예 어려울 수도 있고 사이버 물리 시스템의 일부 구성 요소에서는 그 요구 사항에 따라 베어메탈(bare-metal) 컴퓨팅을 사용하지 않을 수 없다. 이 때문에 클라우드 컴퓨팅 시스템과 베어메탈(bare-metal) 컴퓨팅 시스템의 통합, 또는 베어메탈(bare-metal) 컴퓨팅 자원을 가상화 기술을 사용하지 않고 자원을 관리하고 클라우드 컴퓨팅 서비스화할 수 있는 기술은 어떤 식으로든 필요하고 그 수요가 꾸준히 나타나게 될 것이다.

사이버 물리 시스템에서 필요한 에지 컴퓨팅과 임베디드 실시간 분산 컴퓨팅 시스템을 위한 베어베탈 컴퓨팅 자원 관리 기술은 일반 클라우드 컴퓨팅과는 다른 특성 때문에 아직 큰 발전은 없다. 그렇지만 오픈소스 클라우드 컴퓨팅 소프트웨어인 오픈스택(OpenStack) 개발 커뮤니티에서는 하이퍼바이저, 컨테이너 논란이 뜨거워지기 시작한 2015년부터 오픈스택에서 베어메탈(bare-metal) 컴퓨팅 자원 프로비저닝 및 관리를 위한 다양한 프로젝트들이 개발되기 시작했다. 베어메탈(bare-metal) 프로비저닝과 관리를 위한 “아이어닉(Ironic)”이 대표적인 프로젝트이다. 

베어메탈(bare-metal) 컴퓨팅을 “아이어닉(Ironic)”과 같이 직접적으로 지원하지는 않지만 오픈스택에서 컨테이너 기반으로 응용 프로그램들의 베어메탈(bare-metal) 성능을 최대한 이끌어낼 수 있도록 도커(Docker)와 쿠버네티스(Kubernetes)로 관리되는 컨테이너들을 관리할 수 있는 통합 API를 제공하는 “매그넘(Magnum) 프로젝트”, 오픈스택을 컨테이너 기반의 마이크로 서비스 형태로 프로비저닝할 수 있도록 하는 “콜라(Kolla)” 프로젝트 등도 오픈스택의 가상 머신 기반의 클라우드 컴퓨팅 환경 안에서 베어메탈(bare-metal) 자원의 활용과 관리를 손쉽게 통합할 수 있도록 돕는 관련 프로젝트로 볼 수 있다.

오픈스택의 “아이어닉(Ironic)”, “매그넘(Magnum)”, “콜라(Kolla)”와 같은 종류의 기술은 앞으로 사이버 물리 시스템에서 활용되는 클라우드 컴퓨팅 기술이 베어메탈(bare-metal) 자원의 통합과 관리를 위해 어떤 방향으로 발전해 나가게 될지 엿볼 수 있게 한다.

클라우드 컴퓨팅의 성장으로 인해 인프라 엔지니어와 하드웨어를 구축하고 유지 보수하는 시스템 엔지니어들의 일자리가 사라질 것이라고 예상하는 사람들이 많아지고 있지만, 필자 생각으로는 인프라 엔지니어와 시스템 엔지니어의 역할과 임무가 달라질 뿐이지 일자리가 크게 축소되지는 않을 것 같다. 위와 같이 베어메탈(bare-metal) 컴퓨팅이 필요한 특정한 분야가 여전히 존재하고 한동안은 없어지지 않고 중요한 역할을 할 것이며, 하드웨어 기술이 발전하면서 새로운 하드웨어 기술에 맞게 클라우드 컴퓨팅 서비스와 인프라를 구축해야 하는 전문가들은 여전히 필요하기 때문에 인프라 엔지니어와 시스템 엔지니어들의 수요도 그에 맞게 유지될 것이다. 다만, 인프라와 시스템 엔지니어들이 데브옵스(DevOps) 기술과 같은 소프트웨어 마인드와 기술을 익혀야 할 필요성은 더 높아질 것으로 보인다.

가상 머신에 비해 상대적으로 베어메탈(bare-metal) 컴퓨팅 자원의 성능을 거의 그대로 활용할 수 있는 리눅스 컨테이너 기술을 활용한 클라우드 컴퓨팅의 수요는 점점 더 높아질 것으로 보인다. 특히 요즘 소프트웨어와 런타임 환경의 설치, 배치, 관리의 용도로 리눅스 컨테이너 기술이 점점 더 많이 확산되고 있고 쿠버네티스와 같이 대규모로 컨테이너 인스턴스를 관리해주는 기술이 발전하고 있기 때문에 리눅스 컨테이너 기술을 이용한 베어메탈(bare-metal) 컴퓨팅의 클라우드 컴퓨팅 서비스화는 크게 발전하고 확산될 것으로 보인다.

그렇지만 리눅스 컨테이너 기술도 네트워크 가상화 성능 문제나 멀티테넌시(multi-tenancy) 보안, 하드웨어 자원 용량 관리 및 제어 문제는 여전히 해결하지 못하고 있기 때문에 리눅스 컨테이너로 클라우드 컴퓨팅화할 수 있는 베어메탈(bare-metal) 컴퓨팅 기술은 한계가 있다. 특히 비용과 공간 제약, 발열 등의 물리적인 한계로 인해서 고성능 컴퓨팅 자원을 쓰지 못하고 적정 프로세서와 네트워크 인터페이스 기술을 사용해 가능하면 최대한 성능을 뽑아내야 하는 임베디드 시스템이나 에지 컴퓨팅 시스템의 경우 한동안 클라우드 컴퓨팅 기술을 사용하기에는 시스템 자원이 많이 부족할 것이다. 이런 이유로 사이버 물리 시스템에서 베어메탈(bare-metal) 컴퓨팅 시스템과 클라우드 컴퓨팅 시스템을 통합하는 문제, 또는 베어메탈(bare-metal) 컴퓨팅 시스템 자원을 클라우드 컴퓨팅 시스템과 동일한 인터페이스로 통합, 제어하는 문제는 한동안 중요한 기술적인 문제로 남을 것을 보인다.

반대로 클라우드 컴퓨팅에서의 이종 자원 관리 문제와 소프트웨어적 가상화 기술을 멀티테넌시(multi-tenancy)를 위해 사용하면서 생기는 별도의 시스템 부하를 줄이기 위해 하드웨어 기술 자체가 클라우드 컴퓨팅의 요구 사항에 맞게 발전하는 흐름도 나타날 것으로 보인다. 이런 흐름의 대표적인 예가 앞으로 소개하게 될 인텔의 “랙 스케일 아키텍처(Rack-scale Architecture)”인데 REST API를 통해 랙(rack) 내의 자원을 원하는 대로 조합하여 노드를 생성, 프로비저닝하고 관리하는 “팟 매니저(pod manager)”가 랙(rack) 단위 하드웨어 펌웨어에 아예 포함되어 있어서 하드웨어 수준에서 클라우드 컴퓨팅을 지원하기 용이하게 되어있다[38-53].

지금까지 언급한 다양한 가상화 기술과 베어메탈(bare-metal) 컴퓨팅 자원의 클라우드 컴퓨팅 자원과의 통합 문제로 생기는 과도기적인 문제들이 클라우드 컴퓨팅 서비스 회사나 솔루션 업체들에게는 새로운 비즈니스 기회를 만들어 주기도 할 것이다. 이런 과도기의 끝에 자원 이종성을 극복하는 하나의 가상화 솔루션이 가상화 기술을 제패하여 클라우드 컴퓨팅 아키텍처가 깔끔하게 정리될지, 아니면 프로그래머블(programmable) 하드웨어 기술의 발전으로 클라우드 컴퓨팅이 아닌 다른 이름으로 불리게 될 새로운 인프라 자원 관리 기술이 등장하게 될지 아직 분명하지 않다.

앞서 설명한 사이버 물리 시스템의 이종 자원 관리를 위한 클라우드 컴퓨팅 시스템의 상호운용성 인터페이스, 가상화 기술의 발전, 베어메탈(bare-metal) 컴퓨팅 자원의 신뢰성 있는 통합, 관리 기술은 사이버 물리 시스템을 기반으로 한 지능형 서비스 시장에서 비즈니스와 기술 발전의 계기가 될 것이다. 이는 사이버 물리 시스템 기술의 발전이 IT업계에 줄 수 있는 또 하나의 선물이 될 것으로 필자는 생각한다.

[참고문헌]
[1] 김진철, “LHC에서 배우는 빅데이터와 machine learning 활용 방안”, 2016년 9월 28일, A CIO Conversation for Technology Leadership – Breakfast Roundtable 발표 자료
[2] 김진철, “김진철의 How-to-Big Data (9) – 빅데이터와 클라우드 기술 (1)”, CIO Korea, 2017년 9월 28일자. (http://www.ciokorea.com/column/35688)
[3] 김진철, “김진철의 How-to-Big Data (10) – 빅데이터와 클라우드 기술 (2)”, CIO Korea, 2017년 9월 28일자. (http://www.ciokorea.com/column/36179)
[4] 김진철, “김진철의 How-to-Big Data (11) – 빅데이터와 클라우드 기술 (3)”, CIO Korea, 2017년 9월 28일자. (http://www.ciokorea.com/column/36540)
[5] 김진철, “김진철의 How-to-Big Data (12) – 빅데이터와 클라우드 기술 (4)”, CIO Korea, 2017년 9월 28일자. (http://www.ciokorea.com/column/36748)
[6] 김진철, “김진철의 How-to-Big Data (13) – 빅데이터와 클라우드 기술 (5)”, CIO Korea, 2017년 9월 28일자. (http://www.ciokorea.com/column/37099)
[7] 김진철, “김진철의 How-to-Big Data (14) – 빅데이터와 클라우드 기술 (6)”, CIO Korea, 2017년 9월 28일자. (http://www.ciokorea.com/column/37380)
[8] Jha, Shantenu & Kaiser, Hartmut & Merzky, Andre & Weidner, Ole. (2007). Grid Interoperability at the Application Level Using SAGA, in the Proceedings of Third International Conference on e-Science and Grid Computing, e-Science 2007, 10-13 December 2007, Bangalore, India, p. 584-591.
[9] Merzky, Andre & Weidner, Ole & Jha, Shantenu. (2015). SAGA: A standardized access layer to heterogeneous Distributed Computing Infrastructure. SoftwareX. 84. 10.1016/j.softx.2015.03.001.
[10] Goodale T, Jha S, Kaiser H, Kielmann T, Kleijer P, Merzky A, et al. A Simple API for grid applications (SAGA). In: Grid Forum Document GFD.90, Open Grid Forum, OGF Proposed Recommendation Document, 2007, open Grid Forum.
[11] Merzk A, SAGA API extension: Advert API. In: Grid Forum Document GFD.177, Open Grid Forum, OGF Proposed Recommendation Document, 2011, (http://www.ggf.org/documents/GFD.177.pdf).
[12] Merzky A, SAGA API extension: Message API. In: Grid Forum Document GFD.178, Open Grid Forum, OGF Proposed Recommendation Document, 2011, (http://www.ggf.org/documents/GFD.178.pdf).
[13] Fisher S, Wilson A, Pavnethan A, SAGA API extension: Service discovery API. In: Grid Forum Document GFD.144, Open Grid Forum, OGF Proposed Recommendation Document, 2011, (http://www.ggf.org/documents/GFD.144.pdf).
[14] Fisher S., Wilson A., SAGA API extension: Information system navigator. In: Grid Forum Document GFD.195, Open Grid Forum, OGF Proposed Recommendation Document, 2011, (http://www.ggf.org/documents/GFD.195.pdf).
[15] Merzky A, Luckow A, Simmel D, SAGA extension: Checkpoint and recovery API (CPR). In: Grid Forum Document GFD.XX, Open Grid Forum, Draft for an OGF Proposed Recommendation Document, 2008, (http://www.ogf.org/OGF27/materials/1767/saga cpr.pdf).
[16] Caryer, G. & Rings, T. & Grabowski, J. & Schulz, S. & Stokes-Rees, Ian & Kovacikova, Tatiana. (2009). Grid/cloud computing interoperability, standardization and the Next Generation Network (NGN). 10.1109/ICIN.2009.5357099.
[17] Laurence Field, Markus Schulz, Grid interoperability: the interoperations cookbook, Journal of Physics: Conference Series, V. 119, 062029, 2008.
[18] S. Andreozzi, S. Burke, L. Field, G. Galang, B. Konya, M. Litmaath, P. Millar, J. P. Navarro, “GLUE Specification v. 2.0,” In: Grid Forum Document GFD.147 Open Grid Forum, OGF Proposed Recommendation Document, 2009. (http://www.ogf.org/documents/GFD.147.pdf)
[19] S. Andreozzi, S. Burke, L. Field, B. Konya, S. Memon, D. Meredith, JP Navarro, F. Paganelli, W. Smith, “GLUE v. 2.0 – Reference Realization to XML Schema,“ In: Grid Forum Document GFD.209, Open Grid Forum, OGF Proposed Recommendation Document, 2013. (http://www.ogf.org/documents/GFD.209.pdf)
[20] W. Smith, D. Meredith, S. Memon, JP. Navarro, “GLUE v. 2.0 – Reference Realization to JSON Schema,“  In: Grid Forum Document GFD.219, Open Grid Forum, OGF Proposed Recommendation Document, 2016. (http://www.ogf.org/documents/GFD.219.pdf)
[21] S. Andreozzi, G. Galang, D. Horat, B. Konya, M. Litmaath, S. Memon, P. Millar, JP. Navarro, F. Paganelli, “GLUE v. 2.0 – Reference Realization to LDAP Schema,”  In: Grid Forum Document GFD.218, Open Grid Forum, OGF Proposed Recommendation Document, 2016. (http://www.ogf.org/documents/GFD.218.pdf)
[22] R. Nyrén, A. Edmonds, A.P. Adesso, T. Metsch, B. Parák, “Open Cloud Computing Interface – Core,” In: Grid Forum Document GFD.221, Open Grid Forum, OGF Proposed Recommendation Document, 2016. (http://www.ogf.org/documents/GFD.221.pdf)
[23] M. Drescher, B. Parák, D. Wallom, “OCCI Compute Resource Templates Profile,” In: Grid Forum Document GFD.222, Open Grid Forum, OGF Proposed Recommendation Document, 2016. (http://www.ogf.org/documents/GFD.222.pdf)
[24] R. Nyrén, A. Edmonds, T. Metsch, B. Parák, “Open Cloud Computing Interface - HTTP Protocol,”  In: Grid Forum Document GFD.223, Open Grid Forum, OGF Proposed Recommendation Document, 2016. (http://www.ogf.org/documents/GFD.223.pdf)
[25] T. Metsch, A. Edmonds, B. Parák, “Open Cloud Computing Interface – Infrastructure,” In: Grid Forum Document GFD.224, Open Grid Forum, OGF Proposed Recommendation Document, 2016. (http://www.ogf.org/documents/GFD.224.pdf)
[26] R. Nyrén, F. Feldhaus, B. Parák, Z. Šustr, “Open Cloud Computing Interface – JSON Rendering,”  In: Grid Forum Document GFD.226, Open Grid Forum, OGF Proposed Recommendation Document, 2016. (http://www.ogf.org/documents/GFD.226.pdf)
[27] T. Metsch, M. Mohamed, “Open Cloud Computing Interface – Platform,” In: Grid Forum Document GFD.227, Open Grid Forum, OGF Proposed Recommendation Document, 2016. (http://www.ogf.org/documents/GFD.227.pdf)
[28] G. Katsaros, “Open Cloud Computing Interface – Service Level Agreements,” In: Grid Forum Document GFD.228, Open Grid Forum, OGF Proposed Recommendation Document, 2016. (http://www.ogf.org/documents/GFD.228.pdf)
[29] A. Edmonds, T. Metsch, “Open Cloud Computing Interface – Text Rendering,” In: Grid Forum Document GFD.229, Open Grid Forum, OGF Proposed Recommendation Document, 2016. (http://www.ogf.org/documents/GFD.229.pdf)
[30] Timothy Prickett Morgan, “FUTURE CLOUDS COULD BE JUST CONTAINERS ON BARE METAL,” The Next Platform, September 5, 2018. (https://www.nextplatform.com/2018/09/05/future-clouds-could-be-just-containers-on-bare-metal/)
[31] Randy Bias, “Will Containers Replace Hypervisors? Almost Certainly!”, CloudScaling blog, May 17, 2016. (http://cloudscaling.com/blog/cloud-computing/will-containers-replace-hypervisors-almost-certainly/)
[32] Allison Price, “Containers and OpenStack: here’s what you need to know,” Superuser Magazine published by The OpenStack foundation, June 3, 2015. (https://superuser.openstack.org/articles/containers-and-openstack-here-s-what-you-need-to-know/)
[33] The OpenStack Foundation, “What makes OpenStack relevant in a container-driven world,” Superuser Magazine published by The OpenStack Foundation, June 22, 2017. (https://superuser.openstack.org/articles/openstack-relevant-containers/)
[34] Kathy Cacciatore, Paul Czarkowski, Steven Dake, John Garbutt, Boyd Hemphill, John Jainschigg, Andre Moruga, Adrian Otto, Craig Peters, Brian E. Whitaker, “Exploring Opportunities: Containers and OpenStack,” OpenStack White Paper, The OpenStack Foundation, 2015. (https://object-storage-ca-ymq-1.vexxhost.net/swift/v1/6e4619c416ff4bd19e1c087f27a43eea/www-assets-prod/pdf-downloads/Containers-and-OpenStack.pdf)
[35] Jaesuk Ahn, Christian Berendt, Anne Bertucio, Pete Birley, Chris Hoge, Lingxian Kong, Hongbin Lu, Daniel Mellado, Allison Price, David Rabel, Sangho Shin, Davanum Srinivas, Luis Tomás, Sam Yaple, Mikhail Fedosin, Flavio Percoco, Brian E Whitaker, “Leveraging Containers and OpenStack - A Comprehensive Review,“ The OpenStack Foundation. (https://www.openstack.org/containers/leveraging-containers-and-openstack/?lang=en_US)
[36] Fabrizio Soppelsa, “What are containers, and why do they matter to OpenStack?”, Mirantis Blog,  October 12, 2015. (https://www.mirantis.com/blog/what-are-containers-and-why-do-they-matter-to-openstack/)
[37] 안성원, “클라우드 가상화 기술의 변화 - 컨테이너 기반의 클라우드 가상화와 DevOps,” 소프트웨어정책연구소 이슈리포트 제2018-008호, 2018년 12월 10일. (file:///C:/Users/JincheolKim/Dropbox/GoodReader/Career%20management/%EA%B8%B0%EA%B3%A0/How-to-BigData/Article%2038/Hypervisor%20VS%20Container/[%EC%9D%B4%EC%8A%88%EB%A6%AC%ED%8F%AC%ED%8A%B8%202018-008]%20%ED%81%B4%EB%9D%BC%EC%9A%B0%EB%93%9C%20%EA%B0%80%EC%83%81%ED%99%94%20%EA%B8%B0%EC%88%A0%EC%9D%98%20%EB%B3%80%ED%99%94.pdf)
[38] Intel, “Standardizing the Hyperscale Data Center.” (https://www.intel.co.kr/content/www/kr/ko/architecture-and-technology/rack-scale-design/standardizing-the-hyperscale-data-center-infographic.html)
[39] Intel, “Meeting the Challenges of Data Center Digital Transformation.” (https://www.intel.co.kr/content/www/kr/ko/architecture-and-technology/rack-scale-design/rack-scale-design-dc-transformation-brief.html)
[40] Intel, “Intel® Rack Scale Design (Intel® RSD) Architecture,” White Paper. (https://www.intel.co.kr/content/www/kr/ko/architecture-and-technology/rack-scale-design/rack-scale-design-architecture-white-paper.html)
[41] Intel, “Intel Rack Scale Design (Intel RSD) – Getting Started Guide, Software v.2.5,” Revision 001, July 2019. (https://www.intel.co.kr/content/dam/www/public/us/en/documents/guides/getting-started-guide-v2-5.pdf)
[42] Intel, “Intel Rack Scale Design (Intel RSD) – Architecture Specification, Software v.2.5,” Revision 001, July 2019. (https://www.intel.co.kr/content/dam/www/public/us/en/documents/guides/architecture-spec-v2.5.pdf)
[43] Intel, “Intel Rack Scale Design (Intel RSD) – Pod Manager (PODM) Release Notes, Software v.2.5,” Revision 001, July 2019. (https://www.intel.co.kr/content/dam/www/public/us/en/documents/guides/podm-release-notes-v2-5.pdf
[44] Intel, “Intel Rack Scale Design (Intel RSD) – Pod Manager (PODM) User Guide, Software v.2.5,” Revision 001, July 2019. (https://www.intel.co.kr/content/dam/www/public/us/en/documents/guides/podm-user-guide-v2-5.pdf)
[45] Intel, “Intel Rack Scale Design (Intel RSD) – Pod Manager (PODM) Representational State Transfer (REST) API Specification, Software v.2.5,” Revision 001, July 2019. (https://www.intel.co.kr/content/dam/www/public/us/en/documents/guides/podm-api-spec-v2.5.pdf)
[46] Intel, “Intel Rack Scale Design (Intel RSD) – Pooled System Management Engine (PSME) Release Notes, Software v.2.5,” Revision 001, July 2019. (https://www.intel.co.kr/content/dam/www/public/us/en/documents/guides/psme-release-notes-v2-5.pdf
[47] Intel, “Intel Rack Scale Design (Intel RSD) – Pooled System Management Engine (PSME) User Guide, Software v.2.5,” Revision 001, July 2019. (https://www.intel.co.kr/content/dam/www/public/us/en/documents/guides/psme-release-notes-v2-5.pdf)
[48] Intel, “Intel Rack Scale Design (Intel RSD) – Pooled System Management Engine (PSME) Representational State Transfer (REST) API Specification, Software v.2.5,” Revision 001, July 2019. (https://www.intel.co.kr/content/dam/www/public/us/en/documents/guides/psme-user-guide-v2-5.pdf)
[49] Intel, “Intel Rack Scale Design (Intel RSD) – Storage Services API Specification, Software v.2.5,” Revision 001, July 2019. (https://www.intel.co.kr/content/dam/www/public/us/en/documents/guides/storage-services-api-spec-v2-5.pdf)
[50] Intel, “Intel Rack Scale Design (Intel RSD) – Rack Management Module (RMM) Representational State Transfer (REST) API Specification, Software v.2.5,” Revision 001, July 2019. (https://www.intel.co.kr/content/dam/www/public/us/en/documents/guides/rmm-api-spec-v2-5.pdf)
[51] Intel, “Intel Rack Scale Design (Intel RSD) – Generic Assets Management Interface (GAMI) Representational State Transfer (REST) API Specification, Software v.2.5,” Revision 001, July 2019. (https://www.intel.co.kr/content/dam/www/public/us/en/documents/guides/gami-api-spec-v2-5.pdf)
[52] Mohan J. Kumar, “Look Inside Intel Rack Scale Architecture,” a contributed talk in the 9th Extremely Large Databases Conference, May 24-26, 2016. (https://www-conf.slac.stanford.edu/xldb2016/talks/published/Tues_6_Mohan-Kumar-Rack-Scale-XLDB-Updated.pdf)
[53] Scott Fulton III, “Intel Finally Releases Its Rack Scale Design to Open Source,” DataCenter Knowledge, July 29, 2016. (https://www.datacenterknowledge.com/archives/2016/07/29/intel-finally-releases-rack-scale-design-open-source)
[54] Sabina Jeschke, “Everything 4.0? – Drivers and Challenges of Cyber Physical Systems,” Forschungsdialog Rehinland – Invited Talk, Wuppertal, December 4, 2013.
[55] Insup Lee, “Cyber Physical Systems – The Next Computing Revolution,” Lecture – CIS 480, Department of Computer and Information Science, University of Pennsylvania, 2009.
[56] Insup Lee, “Cyber Physical Systems – The Next Computing Revolution,” Adream Lecture, LAAS-CNRS, June 15, 2010.
[57] 진회승, 서영희, 김원태, “CPS의 기능, 비기능적 소프트웨어 요구사항 분석”, 연구보고서 2017-008, 소프트웨어정책연구소(SPRi), 2018년 4월.
[58] Francesca Palumbo, “Introduction on Cyber-Physical Systems,” Lecture at CPS Summer School – From Concepts to Implementation, Alghero(IT), September 17 ~ 21, 2018.
[59] Teodora Sanislav, Sherali Zeadally, George Dan Mois, “A Cloud-Integrated, Multilayered, Agent-Based Cyber-Physical System Architecture,” Computer, April, 2017.
[60] Edward A. Lee, “The Past, Present and Future of Cyber-Physical Systems: A Focus on Models,” Sensors Vol. 15, pp. 4837-4869, 2015. doi:10.3390/s150304837
[61] Kyoung-Dae Kim and P. R. Kumar, “Cyber-Physical Systems: A Perspective at the Centennial,” Proceedings of the IEEE, Vol. 100, p. 1287 ~ 1308, May 13th, 2012.
[62] Soldani D, Manzalini A, “A 5G Infrastructure for ‘Anything-as-a-Service’”, J. Telecommun. Syst. Manage. 3, pp. 114, 2014. doi:10.4172/2167-0919.1000114
[63] Kyoung-Dae Kim and P. R. Kumar, “An Overview and Some Challenges in Cyber-Physical Systems,” Journal of the Indian Institute of Science, Vol. 93(3), p. 341 ~ 351, Jul.–Sep. 2013. (http://journal.library.iisc.ernet.in/index.php/iisc/article/view/1693)
[64] Alessandro D’Innocenzo, Henry Muccini, “Introduction to CPS,” 1ST DISIM WORKSHOP ON ENGINEERING CYBER-PHYSICAL SYSTEMS, TUESDAY 26, JANUARY 2016.
[65] M. Törngren, F. Asplund, S. Bensalem, J. McDermid, R. Passerone, H. Pfeifer, A. Sangiovanni-Vincentelli, B. Schätz, “Characterization, Analysis and Recommendations for Exploiting the Opportunities of Cyber-Physical Systems,” Chapter 1 in Cyber-Physical Systems – Foundations, Principles, and Applications, edited by Houbing Song, Danda B. Rawat, Sabina Jeschke, Christian Brecher, Academic Press, 2017.
[66] Krishnarajanagar GopalaIyengar Srinivasa, Gaddadevara Matt Siddesh and Kushagra Mishra, “Influence of Big Data on Cyber-Physical Systems,” in Cyber-Physical Systems – A Computational Perspective, edited by Gaddadevara Matt Siddesh, Ganesh Chandra Deka, Krishnarajanagar GopalaIyengar Srinivasa, Lalit Mohan Patnaik, CRC Press, 2016.
[67] Srinidhi Hiriyannaiah, Gaddadevara Matt Siddesh, and Krishnarajanagar Gopala Iyengar Srinivasa, “Ubiquitous Computing for Cyber-Physical Systems,” in Cyber-Physical Systems – A Computational Perspective, edited by Gaddadevara Matt Siddesh, Ganesh Chandra Deka, Krishnarajanagar GopalaIyengar Srinivasa, Lalit Mohan Patnaik, CRC Press, 2016.
[68] Houbing Song, Qinghe Du, Pinyi Ren, Wenjia Li, and Amjad Mehmood, “Cloud Computing for Transportation Cyber-Physical Systems,” in Cyber-Physical Systems – A Computational Perspective, edited by Gaddadevara Matt Siddesh, Ganesh Chandra Deka, Krishnarajanagar GopalaIyengar Srinivasa, Lalit Mohan Patnaik, CRC Press, 2016.

*김진철 박사는 1997년 한국과학기술원에서 물리학 학사, 1999년 포항공과대학교에서 인공신경망에 대한 연구로 석사 학위를, 2005년 레이저-플라즈마 가속기에 대한 연구로 박사 학위를 받았다. 2005년부터 유럽입자물리학연구소(CERN)의 LHC 데이터 그리드 구축, 개발에 참여, LHC 빅데이터 인프라를 위한 미들웨어 및 데이터 분석 기술을 연구하였다. 이후 한국과학기술정보연구원(KISTI), 포항공과대학교, 삼성SDS를 거쳐 2013년부터 SK텔레콤에서 클라우드 컴퓨팅과 인공지능 기술을 연구하고 있다. 빅데이터와 인공지능 기술의 기업 활용 방안에 대해 최근 다수의 초청 강연 및 컨설팅을 수행하였다. ciokr@idg.co.kr

CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.