2016.11.02

'압도적 규모와 기술, 그리고 보안'··· MS의 퀀시 데이터센터 이모저모

Jonathan Hassell | Computerworld
어떤 IT 종사자들은 데이터센터를 찾기 위해 수 천 개의 데이터센터를 살펴본다. 이 모든 것들은 모습과 느낌과 냄새가 똑같다. 수 십 줄의 랙(Rack), 올림 바닥, 케이블, 수 백만 개의 깜빡이는 조명이 일반적인 데이터센터 경험을 구성하며 이제는 데이터센터 디자인의 예술이 과학의 수준에 도달했다고 생각하는 사람도 있을 것이다.

하지만 클라우드 거대 기업인 마이크로소프트, 아마존, 구글의 경우 데이터센터가 고정 불변의 것이 아니다. 그보다는 서버가 더욱 강력해지고 성능 비용이 점차 저렴해지며 컴퓨터의 성능 부족이 감소하고 규모가 거대해지면서 세대를 거듭하며 발전한다. 수 백만 대의 서버가 있는 데이터센터를 다른 수준에서 운영하고 있으며 긴밀한 보안까지 완성하면서 각 거대 기업들인 수 백만 대의 서버를 운영하는 방식이 경쟁 우위라고 생각한다.

필자는 지난 달 마이크로소프트가 말하는 데이터센터 혁명이 무엇인지 보기 위해 워싱턴의 퀸시에 위치한 데이터센터 그룹 투어의 일환으로 그 이면의 모습을 살짝 훔쳐볼 수 있는 기회를 얻었다. 우리 그룹은 사진을 촬영할 수 없었지만 마이크로소프트는 필자가 투어에서 본 것과 정확히 일치하는 이미지를 제공했다. 클라우드와 하이퍼스케일(Hyperscale)이 데이터센터를 조합하는 방식을 어떻게 바꾸고 있는지 살펴보도록 하자.

퀸시: 크롭(Crop)과 클라우드


워싱턴의 퀸시는 워시턴의 농업 도시일 뿐만 아니라 2006년에 연 마이크로소프트의 오래된 데이터센터 중 한 곳이다. 이 사진은 다양한 워크로드를 관리하는 거대한 퀸시 캠퍼스를 구성하는 270에이커 면적의 일부일 뿐이다. (또한 마이크로소프트 애저 시설이 현재의 시설 인근에 건설되고 있다. 당시 공사 중이었기 때문에 애저 시설은 돌아보지 못했다).

마이크로소프트는 상대적으로 온화한 기후, 낮은 습도, 엄청난 양의 서버를 위한 저렴하고 풍부한 수력 발전 전기의 근원인 콜럼비아 강과의 근접성 때문에 퀸시를 선택했다. 기후 자체 덕분에 단열 냉각을 사용할 수 있어 외부의 공기를 다양한 온도의 물과 혼합하여 데이터센터 캠퍼스에서 필요한 상당 부분의 냉각을 제공한다. (야후를 포함하여 다른 업체의 데이터센터도 이 지역에 있다.)

사실: 마이크로소프트는 워싱턴의 리치몬드(Richmond) 본사 및 캠퍼스에 1989년 최초의 데이터센터를 열었다.

전통적인 데이터센터 접근방식 또는 "1세대"



퀸시 데이터센터의 일부는 예상대로이다. 수 백 줄의 랙과 서버 및 네트워크 장비로 가득 차 있다. 이 공간들은 팬이 회전하는 수 백 대의 서버가 뜨거워지기 때문에 일반적으로 거대한 에어컨으로 냉각한다. (이 때문에 많은 데이터센터 운영사들이 기본적으로 일부 컴퓨터를 연결하여 거대한 에어컨을 가동하고 있다고 말한다).

마이크로소프트가 말하는 "1세대" 데이터센터에서는 랙 장비로부터 배출되는 열을 억제하기 위해 전통적인 데이터센터 구성에 열복도(Hot Aisle)를 구성했으며 이런 복도는 올림 바닥을 통해 공조 공기를 통과시키는 전통적인 냉각기로 냉각한다. 물론, 이런 냉각기는 엄청난 전력을 소모한다. 열복도는 열 손실을 제한하기 위해 단열 플라스틱으로 밀봉되어 있다. 랙의 전면은 일반 공기에 노출되어 있으며 단열되어 있지 않아 서비스 작업 및 문제 해결을 위해 좀 더 쉽게 접근할 수 있다. 그 결과가 더운 공기를 격리하여 냉각 및 에너지 비용이 꽤 감소한 서버실의 전통적인 구성이다.

흥미롭게도 이런 벽체 내부에서 기계가 차지하는 공간이 감소하고 있다. 퀸시 캠퍼스의 각 부분은 일정 메가와트 수로 등급을 매긴 데이터센터로 간주된다. 서버와 네트워킹 하드웨어가 더욱 효율적으로 변하면서 장비는 시간이 지남에 따라 더 적은 수의 기계로 통합되고 하드웨어들은 전체적으로 운영을 위한 메가와트 수가 감소한다. 그 결과, 일정 수의 메가와트를 위해 구축한 시설의 일부분이 더 이상 용량에 가깝지 않게 되었다. 우리가 볼 수 있었던 베이(Bay)의 상당 부분이 비어 있었으며 올림 바닥의 타일은 공기만 지탱하고 있을 뿐이었다.

사실: 마이크로소프트의 데이터센터는 항상 200개 이상의 온라인 서비스를 제공한다.

서버와 네트워킹의 컨테이너화



약 10년이 지나면서 마이크로소프트는 새로운 데이터센터를 구축할 때 서버 부하의 컨테이너화를 실험하기 시작했다. 마이크로소프트는 기본적으로 데이터센터의 사양을 하나의 상자로 설계하고 대형 컴퓨팅 벤더들이 서버, 네트워킹 장비, 전원 공급장치, UPS로 구성된 "POD"를 제공하기 위해 경쟁하도록 했다. 마이크로소프트는 이것들을 전원에 연결하고 필요한 업스트림 네트워킹을 제공하며 이것들이 데이터센터 현장에 인도되었을 때 말 그대로 냉각을 위해 전원용 호스만 붙잡고 있으면 되었다.

이 컨테이너 개념의 다양한 버전과 개정 버전이 존재하며 마이크로소프트는 이를 "ITPAC"이라고 부르고 그 중 둘을 위에서 볼 수 있다.

이때부터 데이터센터를 관리할 수 천 개의 개별적인 서버가 아니라 단일 유닛으로 보기 시작했으며, 하이퍼스케일로 관리할 때는 중요한 사항이다. 물론, 마이크로소프트 애저는 자격을 갖추고 있다. 마이크로소프트는 자사 제품에서 소프트웨어 정의 네트워킹과 데이터센터를 강조하고 있지만 그 주된 이유는 소프트웨어 정의 네트워킹 사용이 마이크로소프트가 온라인 서버를 구성하는 수 백만 대의 서버를 관리하는 방식이기 때문이다.

"ITPAC"에 따라 수 천 대의 서버와 네트워킹 장비를 주문하면서 개별적인 하드웨어 조각들이 하는 일에 대해 잊어버리기 십상이며, 시스템 관리 소프트웨어를 통해 경로, 워크로드, 시스템 대체 작동 절차 등을 손쉽게 재정의할 수 있다.

사실: 마이크로소프트는 자사 데이터센터에 있는 물리적인 서버의 수가 100만 대 이상이라고 밝혔다




2016.11.02

'압도적 규모와 기술, 그리고 보안'··· MS의 퀀시 데이터센터 이모저모

Jonathan Hassell | Computerworld
어떤 IT 종사자들은 데이터센터를 찾기 위해 수 천 개의 데이터센터를 살펴본다. 이 모든 것들은 모습과 느낌과 냄새가 똑같다. 수 십 줄의 랙(Rack), 올림 바닥, 케이블, 수 백만 개의 깜빡이는 조명이 일반적인 데이터센터 경험을 구성하며 이제는 데이터센터 디자인의 예술이 과학의 수준에 도달했다고 생각하는 사람도 있을 것이다.

하지만 클라우드 거대 기업인 마이크로소프트, 아마존, 구글의 경우 데이터센터가 고정 불변의 것이 아니다. 그보다는 서버가 더욱 강력해지고 성능 비용이 점차 저렴해지며 컴퓨터의 성능 부족이 감소하고 규모가 거대해지면서 세대를 거듭하며 발전한다. 수 백만 대의 서버가 있는 데이터센터를 다른 수준에서 운영하고 있으며 긴밀한 보안까지 완성하면서 각 거대 기업들인 수 백만 대의 서버를 운영하는 방식이 경쟁 우위라고 생각한다.

필자는 지난 달 마이크로소프트가 말하는 데이터센터 혁명이 무엇인지 보기 위해 워싱턴의 퀸시에 위치한 데이터센터 그룹 투어의 일환으로 그 이면의 모습을 살짝 훔쳐볼 수 있는 기회를 얻었다. 우리 그룹은 사진을 촬영할 수 없었지만 마이크로소프트는 필자가 투어에서 본 것과 정확히 일치하는 이미지를 제공했다. 클라우드와 하이퍼스케일(Hyperscale)이 데이터센터를 조합하는 방식을 어떻게 바꾸고 있는지 살펴보도록 하자.

퀸시: 크롭(Crop)과 클라우드


워싱턴의 퀸시는 워시턴의 농업 도시일 뿐만 아니라 2006년에 연 마이크로소프트의 오래된 데이터센터 중 한 곳이다. 이 사진은 다양한 워크로드를 관리하는 거대한 퀸시 캠퍼스를 구성하는 270에이커 면적의 일부일 뿐이다. (또한 마이크로소프트 애저 시설이 현재의 시설 인근에 건설되고 있다. 당시 공사 중이었기 때문에 애저 시설은 돌아보지 못했다).

마이크로소프트는 상대적으로 온화한 기후, 낮은 습도, 엄청난 양의 서버를 위한 저렴하고 풍부한 수력 발전 전기의 근원인 콜럼비아 강과의 근접성 때문에 퀸시를 선택했다. 기후 자체 덕분에 단열 냉각을 사용할 수 있어 외부의 공기를 다양한 온도의 물과 혼합하여 데이터센터 캠퍼스에서 필요한 상당 부분의 냉각을 제공한다. (야후를 포함하여 다른 업체의 데이터센터도 이 지역에 있다.)

사실: 마이크로소프트는 워싱턴의 리치몬드(Richmond) 본사 및 캠퍼스에 1989년 최초의 데이터센터를 열었다.

전통적인 데이터센터 접근방식 또는 "1세대"



퀸시 데이터센터의 일부는 예상대로이다. 수 백 줄의 랙과 서버 및 네트워크 장비로 가득 차 있다. 이 공간들은 팬이 회전하는 수 백 대의 서버가 뜨거워지기 때문에 일반적으로 거대한 에어컨으로 냉각한다. (이 때문에 많은 데이터센터 운영사들이 기본적으로 일부 컴퓨터를 연결하여 거대한 에어컨을 가동하고 있다고 말한다).

마이크로소프트가 말하는 "1세대" 데이터센터에서는 랙 장비로부터 배출되는 열을 억제하기 위해 전통적인 데이터센터 구성에 열복도(Hot Aisle)를 구성했으며 이런 복도는 올림 바닥을 통해 공조 공기를 통과시키는 전통적인 냉각기로 냉각한다. 물론, 이런 냉각기는 엄청난 전력을 소모한다. 열복도는 열 손실을 제한하기 위해 단열 플라스틱으로 밀봉되어 있다. 랙의 전면은 일반 공기에 노출되어 있으며 단열되어 있지 않아 서비스 작업 및 문제 해결을 위해 좀 더 쉽게 접근할 수 있다. 그 결과가 더운 공기를 격리하여 냉각 및 에너지 비용이 꽤 감소한 서버실의 전통적인 구성이다.

흥미롭게도 이런 벽체 내부에서 기계가 차지하는 공간이 감소하고 있다. 퀸시 캠퍼스의 각 부분은 일정 메가와트 수로 등급을 매긴 데이터센터로 간주된다. 서버와 네트워킹 하드웨어가 더욱 효율적으로 변하면서 장비는 시간이 지남에 따라 더 적은 수의 기계로 통합되고 하드웨어들은 전체적으로 운영을 위한 메가와트 수가 감소한다. 그 결과, 일정 수의 메가와트를 위해 구축한 시설의 일부분이 더 이상 용량에 가깝지 않게 되었다. 우리가 볼 수 있었던 베이(Bay)의 상당 부분이 비어 있었으며 올림 바닥의 타일은 공기만 지탱하고 있을 뿐이었다.

사실: 마이크로소프트의 데이터센터는 항상 200개 이상의 온라인 서비스를 제공한다.

서버와 네트워킹의 컨테이너화



약 10년이 지나면서 마이크로소프트는 새로운 데이터센터를 구축할 때 서버 부하의 컨테이너화를 실험하기 시작했다. 마이크로소프트는 기본적으로 데이터센터의 사양을 하나의 상자로 설계하고 대형 컴퓨팅 벤더들이 서버, 네트워킹 장비, 전원 공급장치, UPS로 구성된 "POD"를 제공하기 위해 경쟁하도록 했다. 마이크로소프트는 이것들을 전원에 연결하고 필요한 업스트림 네트워킹을 제공하며 이것들이 데이터센터 현장에 인도되었을 때 말 그대로 냉각을 위해 전원용 호스만 붙잡고 있으면 되었다.

이 컨테이너 개념의 다양한 버전과 개정 버전이 존재하며 마이크로소프트는 이를 "ITPAC"이라고 부르고 그 중 둘을 위에서 볼 수 있다.

이때부터 데이터센터를 관리할 수 천 개의 개별적인 서버가 아니라 단일 유닛으로 보기 시작했으며, 하이퍼스케일로 관리할 때는 중요한 사항이다. 물론, 마이크로소프트 애저는 자격을 갖추고 있다. 마이크로소프트는 자사 제품에서 소프트웨어 정의 네트워킹과 데이터센터를 강조하고 있지만 그 주된 이유는 소프트웨어 정의 네트워킹 사용이 마이크로소프트가 온라인 서버를 구성하는 수 백만 대의 서버를 관리하는 방식이기 때문이다.

"ITPAC"에 따라 수 천 대의 서버와 네트워킹 장비를 주문하면서 개별적인 하드웨어 조각들이 하는 일에 대해 잊어버리기 십상이며, 시스템 관리 소프트웨어를 통해 경로, 워크로드, 시스템 대체 작동 절차 등을 손쉽게 재정의할 수 있다.

사실: 마이크로소프트는 자사 데이터센터에 있는 물리적인 서버의 수가 100만 대 이상이라고 밝혔다


X