Offcanvas

CIO / How To / 개발자 / 비즈니스|경제 / 빅데이터 | 애널리틱스 / 스토리지 / 애플리케이션

김진철의 How-to-Big Data | 빅데이터 주요 기술의 조건 (3)

2018.05.23 김진철  |  CIO KR


빅데이터를 담는 그릇 – 대용량 확장형 스토리지
1994년에 개발된 베오울프(Beowulf) 클러스터 병렬 컴퓨팅 기술은 컴퓨팅 자원의 확장성을 크게 높이는 혁신만을 일으킨 것이 아니라, 저장 장치 노드의 수에 비례해 저장할 수 있는 데이터의 양을 선형적으로 늘려갈 수 있는 스케일-아웃형 저장 장치 기술의 발전에도 크게 기여하였다. 베오울프 클러스터 병렬 컴퓨팅 기술 때문에 분산 파일 시스템 기술의 발전이 촉진되었다. 분산 파일 시스템 기술이 발전하면서 저장, 보관할 수 있는 데이터의 양이 기하급수적으로 많아져 오늘날의 빅데이터 기술이 발전했다고 해도 과언이 아니다.

여러 노드에 걸친 스토리지 서버 노드에 대용량 데이터를 분산시켜 저장하고 관리할 수 있도록 하는 분산 파일 시스템 기술은 하둡과 같은 병렬 처리 프레임워크 소프트웨어 기술과 함께 빅데이터를 다루는 데 필요한 가장 기본적인 기술이라고 할 수 있다. 우선 빅데이터가 저장, 관리되어야 이를 분석하거나 가공할 수 있기 때문이다.

최근 고용량 하드디스크와 SSD가 개발되면서 1TB 저장 용량당 저장 장치 단가가 싸지고 있는 기술 트렌드와 함께 스케일-아웃형 분산 파일 시스템 소프트웨어 기술의 발전으로 저장 장치 용량 확장이 쉬워지고 빅데이터 저장 시스템 통합 비용이 많이 감소한 것이, 하둡과 같은 오픈소스 병렬 처리 프레임워크 기술의 발전과 함께 빅데이터에 대한 관심과 활용을 확산하는 주 요인이라고 볼 수 있다.

분산 파일 시스템 발전 초반에는, 베오울프 클러스터 컴퓨팅 시스템의 여러 노드에서 클러스터 각 노드의 로컬(local) 스토리지에 데이터를 일일이 복사하는 수고와, NFS 등의 원격 파일 시스템 프로토콜로 통합된 원격 파일 시스템 저장 공간에 저장된 데이터에 병렬화된 복수의 컴퓨팅 작업들이 동시에 접근하면서 생기는 성능 병목을 해결하고 데이터 I/O 성능을 높이기 위해 병렬 데이터 I/O를 효과적으로 지원하는 파일 시스템 기술로서 분산 파일 시스템이 발전했다. 요즘은 대용량의 데이터를 노드 수만 늘려 선형확장적으로 데이터의 용량을 늘리는 스케일-아웃 분산 파일 시스템이 많다.

이런 분산 파일 시스템으로 대표적인 것이 여러분들이 잘 알고 있는 하둡의 분산 파일 시스템인 HDFS이다. 클라우드용으로 많이 쓰이는 오픈스택의 스위프트(Swift), 세프(Ceph)와 같은 객체 저장 스토리지 시스템(Object Storage System) 기술도 일종의 분산 파일 시스템으로 볼 수 있다. 최근 클라우드와 함께 GlusterFS와 같은 오픈소스 분산 파일 시스템도 많이 쓰인다. IBM의 GPFS와 WekaIO와 같은 상용 분산 파일 시스템은 수십 페타바이트 수준에 이르는 저장 장치 용량 확장성을 보여주기도 한다.

과거 분산 파일 시스템의 확장성은 노드를 연결하는 네트워크 성능에 의해 확장성의 정도와 성능이 제약을 많이 받았고, 확장성의 제약 때문에 분산 파일 시스템에서 제공할 수 있는 총 스토리지 용량도 제약이 있을 수밖에 없었다. 하지만, 최근 SSD 및 비휘발성 메모리 하드웨어 기술의 급격한 발전으로 분산 파일 시스템 기술을 이용하여 사용할 수 있는 총 저장 용량의 한계가 점점 늘어나고 있다.

올해 2월 20일 삼성전자가 발표한 SSD는 SSD 한 개의 용량이 벌써 30TB를 넘어서고 있다[11-14]. 삼성전자의 이 SSD 스토리지 서버 한 대에서 확보할 수 있는 저장 용량의 한계를 페타바이트 스케일까지 끌어올렸을 뿐만 아니라, I/O 속도도 기존 SSD의 4배까지 향상되어 저장된 데이터에 대해 하둡이나 스파크를 이용한 병렬 처리 연산 성능까지 향상시킬 수 있게 되었다. SSD 기술의 급격한 발전은 분산 파일 시스템으로 확장할 수 있는 스토리지 용량의 한계를 페타바이트 스케일에서 페타바이트의 1,000배인 엑사바이트 스케일까지 확장시키고 있다. 분산 스토리지 시스템의 저장 장치 확장성이 엑사바이트의 1,000배인 제타바이트 스케일로 향상되는 것은 최근 실리콘 포토닉스 기술을 이용한 광 트랜시버 기술과 100G 이더넷 등의 고성능 네트워크 기술의 발전으로 오래 걸리지 않을 것으로 보인다.

삼성전자의 30TB SAS SSD는 512GB 3비트(TLC) V-NAND 기술로 만들어졌는데, 이런 고용량 SSD와 차세대 저장 장치 기술을 가능하게 하는 기술들이 대용량 확장형 스토리지의 저장 용량 및 I/O 성능 한계를 더 높일 수 있을 것으로 보인다. 가장 대표적인 기술은 인텔의 3D XPoint 기술, IBM을 비롯한 많은 메모리 기업들이 차세대 메모리로 연구하고 있는 상변화 메모리 기술(Phase-Change Memory; PCM)이다. 비록 HP에서 ‘더 머신(The Machine)’의 핵심 기술로 발표했다가 철회하기는 했지만 여전히 유망한 차세대 메모리 기술로 꼽히고 있고 활발히 연구되고 있는 멤리스터(memrister) 기술도 데이터 처리 연산과 빅데이터 스토리지 시스템의 저장 용량을 획기적으로 향상시킬 수 있는 기술이다.

이런 새로운 비휘발성 메모리 소자 기술의 급격한 발전으로 빅데이터 저장 용량의 한계가 크게 높아지고 있을 뿐만 아니라, 빅데이터 가공, 분석 연산 성능까지 향상되고 있다는 사실은 빅데이터 문제가 어느 한 소프트웨어 프레임워크 기술로 해결되는 문제가 아니라는 사실을 다시 확인할 수 있게 해준다.
빅데이터를 위한 대용량 확장형 스토리지 구축을 위해 분산 파일 시스템 소프트웨어, 비휘발성 메모리 및 저장 장치 기술과 함께 중요한 또 하나의 기술 요소가 네트워크이다. 네트워크의 경우 네트워크 대역폭과 지연 등의 기술적인 요소도 중요하지만, 전체 빅데이터 처리 프로세스에 따른 데이터 이동 경로와 가공 과정, 분산 파일 시스템 소프트웨어와 병렬 처리 프레임워크 소프트웨어의 아키텍처를 고려한 네트워크 디자인의 요소도 매우 중요하다.

인텔의 옴니패스(OmniPath)와 같은 고성능 네트워크 기술이나 차세대 이더넷 네트워크 기술인 100Gbps 이더넷 기술은 빅데이터 저장, 이동, 연산 성능을 물리적으로 향상시키고 비즈니스 요구사항에 맞는 확장형 빅데이터 스토리지 시스템을 구성하기 위해 가장 기본적으로 고려되어야 할 사항이다. 이런 고성능 네트워크 기술 제품 도입에는 비용이 많이 들기 때문에, 적절한 네트워크 토폴로지 디자인을 통해서 대용량 확장형 스토리지 시스템 구축의 비용과 성능을 최적화할 필요가 있다.

빅데이터를 위한 대용량 확장형 스토리지를 구축할 때, 노드 수의 증가에 따른 저장 용량과 데이터I/O의 선형 확장성을 보장하도록 네트워크를 설계하는 것은 기본적인 요구 사항이다. 스토리지 시스템 내부의 확장성을 보장하는 네트워크 설계와 함께 빅데이터 스토리지 시스템으로 데이터 수집 시스템에서 데이터를 전송하는 경로, 빅데이터 스토리지 시스템에서 데이터의 가공 및 처리를 위한 빅데이터 병렬 처리 시스템으로의 데이터 전송, 데이터 분석과 가시화 시스템으로의 데이터 전송, 분석 및 가시화 과정에서의 데이터 I/O를 고려한 네트워크 설계가 같이 이뤄져야 한다(그림 8).



대규모 가시화를 동원하는 탐색적 데이터 분석을 할 때는 데이터 과학자, 분석가와 가시화된 데이터와의 상호작용(interaction)의 응답성(response time), 또는 지연이 매우 중요하게 된다. 빅데이터 스토리지 시스템에서 데이터를 불러오는 과정에서 분산 파일 시스템을 통한 데이터 I/O 과정의 지연, 데이터 분석 및 가시화 시스템으로의 데이터 전송 과정에서 발생하는 지연, 병렬 데이터 가시화를 위한 데이터 변환, 병렬 가시화 시스템의 메모리로 가시화용 데이터를 적재(load)하고 실제 데이터 가시화를 수행하는 과정에서 발생하는 지연을 모두 고려했을 때, 데이터 과학자나 분석가가 데이터 탐색과 분석에 어려움을 느끼지 않게끔 빅데이터 스토리지 시스템으로부터 데이터 분석 및 가시화 시스템까지의 네트워크를 최적의 비용과 노력으로 설계하는 것은 빅데이터 시스템 구축에서 흔하게 만날 수 있는 중요한 기술적인 문제다.

특히 빅데이터를 수집하는 과정에서 요즘 많이 구축하게 되는 데이터 레이크(data lake)의 경우 그 근본 인프라가 대용량 확장형 스토리지 시스템이다. 데이터 레이크 시스템으로 다양한 데이터가 병목 없이 흘러들어오게 하기 위해서는 데이터 소스로부터 데이터 레이크로 이르는 네트워크에 병목이 없도록 데이터 소스의 종류와 위치에 따른 확장성도 같이 고려해주어야 한다.

데이터 레이크에서는 빅데이터의 활용을 위한 데이터 가공과 처리도 일부 겸하게 되는데, 데이터 레이크에서의 데이터 가공, 처리가 적절하게 이루어진 경우 데이터 수집 이후 단계에서의 네트워크 확장성에 대한 부담을 많이 줄일 수 있어서 데이터 수집을 위한 네트워크 설계는 데이터 레이크 구축에서 신중하게 고려하고 디자인하는 것이 좋다. 특히 수집할 데이터 소스가 분명하게 정해지지 않고 앞으로 계속해서 추가되고 확장될 가능성이 높다면 데이터 레이크로의 데이터 유입량의 증가에 쉽게 대처할 수 있는 확장성 있는 네트워크 설계가 매우 중요하다.

대용량 확장형 스토리지 시스템은 빅데이터 병렬 처리 시스템과 함께 빅데이터 시스템의 가장 중요한 영역이다. 특히, 빅데이터 수집, 가공, 처리, 분석, 가시화의 모든 단계가 대용량 확장형 스토리지 시스템에 저장된 빅데이터에서 시작되기 때문에 대용량 확장형 스토리지 시스템은 빅데이터 비즈니스를 위해 가장 기본이 되면서 중요한 시스템이라고 볼 수 있다. 최근 영구 저장 장치 소자 기술의 발전으로 인한 노드당 저장 용량의 증가와 네트워크의 물리적 대역폭의 증가, 분산 파일 시스템 소프트웨어와 데이터 레이크 솔루션 기술의 발전으로 한 조직이 모아둘 수 있는 빅데이터 양의 한계가 빠르게 높아지고 있다. 빅데이터 저장 기술의 발전으로 빅데이터 문제는 이제 모든 조직과 기업이 맞닥뜨려 해결해야 하는 기본적인 IT 인프라 문제가 되어가고 있다.

[참고문헌]
[1] 김진철, “LHC에서 배우는 빅데이터와 machine learning 활용 방안”, 2016년 9월 28일, A CIO Conversation for Technology Leadership – Breakfast Roundtable 발표 자료
[2] B. Bellenot, R. Brun, G. Ganis, J. Iwaszkiewicz, F. Rademakers, M. Ballintijn, “PROOF: Parallel ROOT Facility – Poster Presentation.“
[3] Lana Abadie, Paolo Badino, Jean-Philippe Baud, Ezio Corso, Matt Crawford, Shaun De Witt, Flavia Donno, Alberto Forti, Ákos Frohner, Patrick Fuhrmann, Gilbert Grosdidier, Junmin Gu, Jens Jensen, Birger Koblitz, Sophie Lemaitre, Maarten Litmaath, Dmitry Litvinsev, Giuseppe Lo Presti, Luca Magnoni, Tigran Mkrtchan, Alexander Moibenko, Rémi Mollon, Vijaya Natarajan, Gene Oleynik, Timur Perelmutov, Don Petravick, Arie Shoshani, Alex Sim, David Smith, Massimo Sponza, Paolo Tedesco, Riccardo Zappi, “Storage Resource Managers: Recent International Experience on Requirements and Multiple Co-Operating Implementations, “, in the Proceedings of the 24th IEEE Conference on Mass Storage Systems and Technologies (MSST 2007), 2007.
[4] CASTOR Storage System, http://castor.web.cern.ch/castor/ .
[5] dCache distributed storage software, http://www.dcache.org/ .
[6] Enstore tape archive system, http://www-ccf.fnal.gov/enstore/ .
[7] HPSS Consortium, http://www.hpss-collaboration.org/hpss/index.jsp .
[8] Corso, E. and Cozzini, S. and Donno, F. and Ghiselli, A. and Magnoni,, L. and Mazzucato, M. and Murri, R. and Ricci, P.P. and Stockinger, H. and Terpin, A. and Vagnoni, V. and Zappi, R., “StoRM, an SRM Implementation for LHC Analysis Farms Computing in High Energy Physics”, CHEP’06, Feb. 13-17, 2006, Mumbai, India, http://indico.cern.ch/contributionDisplay.py?contribId=373&sessionId=13&confId=048.
[9] StoRM: a Manager for Storage Resource in Grid, http://italiangrid.github.io/storm/documentation/functional-description/1.11.2/ .
[10] Ian Collier, on behalf of Ian Bird, “WLCG Workshop – Introduction,” Presentation at the WLCG Workshop Manchester, 19th June 2017. (https://goo.gl/a3RvKD)
[11] 삼성전자, 30TB 고속•초대용량 기업용 SSD 출시, 전자신문, 2018.02.20일자. (http://www.etnews.com/20180220000076)
[12] 삼성전자, 세계 최초 ‘30.72TB SAS SSD’ 양산, Samsung Newsroom, 2018/02/20. (https://goo.gl/xGYPfL)
[13] Richard Lawler, “Samsung has the world's largest SSD, again, at 30TB,” Engadget, 2018/02/20. (https://goo.gl/7bPy1N)
[14] Brad Chacos, “Samsung's 30TB SSD crams massive capacity into an ultra-fast 2.5-inch drive,” PC World, 2018/02/20. (https://goo.gl/fb9Q2B)

 

*김진철 박사는 1997년 한국과학기술원에서 물리학 학사, 1999년 포항공과대학교에서 인공신경망에 대한 연구로 석사 학위를, 2005년 레이저-플라즈마 가속기에 대한 연구로 박사 학위를 받았다. 2005년부터 유럽입자물리학연구소(CERN)의 LHC 데이터 그리드 구축, 개발에 참여, LHC 빅데이터 인프라를 위한 미들웨어 및 데이터 분석 기술을 연구하였다. 이후 한국과학기술정보연구원(KISTI), 포항공과대학교, 삼성SDS를 거쳐 2013년부터 SK텔레콤에서 클라우드 컴퓨팅과 인공지능 기술을 연구하고 있다. 빅데이터와 인공지능 기술의 기업 활용 방안에 대해 최근 다수의 초청 강연 및 컨설팅을 수행하였다. ciokr@idg.co.kr
 
CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
Sponsored
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.