Offcanvas

���������������

클라우드플레어 중단 사고, 수백 여 사이트·서비스에 여파

지난 21일 클라우드 플레이어의 서비스가 중단됐다. 이에 따라 디스코드,쇼피파이, 핏빗, 펠로톤, 각종 암호화폐 서비스 등이 몇 시간 동안 함께 중단됐다.  2010년 설립된 클라우드플레이어는 디도스(distributed denial-of-service) 보호, 속도 최적화 및 다양한 사이버 보호 서비스를 제공하는 CDN(content delivery network) 기업이다.  이 회사는 지난주에도 인도 지역에서 중단 문제를 겪은 바 있다. 당시에도 인도와 인도네시아, 동유럽 지역에서 디스코드, 쇼피파이, 칸바, 깃랩 등이 네트워크 성능 문제를 겪었다.  21일 발생한 중단 사고는 GMT 오전 7시 43분에 클라우드플레어 상태 페이지에서 처음 확인됐다. 회사는 “클라우드플레어 네트워크의 연결이 광범위한 지역에서 중단됐다. 해당 지역의 고객들은 500 오류를 보게 된다. 이번 사고는 우리 네트워크의 모든 데이터 플레인에 영향을 미치고 있다”라고 밝혔다.  클라우드플레이어는 오전 7시 57분에 문제를 확인했으며 수정 작업 진행되고 있다고 밝혔다. 오전 8시 20분경에는 픽스가 배포됐고 “결과를 모니터링하고 있다”라고 공지했다. 서비스가 정상화된 시점은 오전 8시 13분이었다.  클라우드플레어는 성명서를 통해 “일부 데이터센터의 네트워크 변경으로 인해 네트워크 일부를 사용할 수 없었다”라고 사고 원인을 설명했다. ciokr@idg.co.kr

클라우드플레어 중단 아웃티지 중지 CDN

2022.06.22

지난 21일 클라우드 플레이어의 서비스가 중단됐다. 이에 따라 디스코드,쇼피파이, 핏빗, 펠로톤, 각종 암호화폐 서비스 등이 몇 시간 동안 함께 중단됐다.  2010년 설립된 클라우드플레이어는 디도스(distributed denial-of-service) 보호, 속도 최적화 및 다양한 사이버 보호 서비스를 제공하는 CDN(content delivery network) 기업이다.  이 회사는 지난주에도 인도 지역에서 중단 문제를 겪은 바 있다. 당시에도 인도와 인도네시아, 동유럽 지역에서 디스코드, 쇼피파이, 칸바, 깃랩 등이 네트워크 성능 문제를 겪었다.  21일 발생한 중단 사고는 GMT 오전 7시 43분에 클라우드플레어 상태 페이지에서 처음 확인됐다. 회사는 “클라우드플레어 네트워크의 연결이 광범위한 지역에서 중단됐다. 해당 지역의 고객들은 500 오류를 보게 된다. 이번 사고는 우리 네트워크의 모든 데이터 플레인에 영향을 미치고 있다”라고 밝혔다.  클라우드플레이어는 오전 7시 57분에 문제를 확인했으며 수정 작업 진행되고 있다고 밝혔다. 오전 8시 20분경에는 픽스가 배포됐고 “결과를 모니터링하고 있다”라고 공지했다. 서비스가 정상화된 시점은 오전 8시 13분이었다.  클라우드플레어는 성명서를 통해 “일부 데이터센터의 네트워크 변경으로 인해 네트워크 일부를 사용할 수 없었다”라고 사고 원인을 설명했다. ciokr@idg.co.kr

2022.06.22

시스코, 400GbE급 데이터센터 스위치 5종 공개… 향후 800Gb 지원도 언급

시스코가 고대역폭 애플리케이션을 위한 새로운 넥서스 데이터센터 스위치 5종을 공개했다.    시스코가 AI와 클라우드 네이티브 등 고대역폭 애플리케이션을 효과적으로 지원하고자 100/400Gb 이더넷 지원을 강화한 새로운 Nexus 데이터센터 스위치(9332D, 9348D, 9364D, 9800, 9400)를 공개했다.  넥서스 9332D는 지금 바로 구매할 수 있으며, 넥서스 9348D와 넥서스 9364D는 이번 달에 출시될 예정이라고 회사는 밝혔다. 넥서스 9800은 7월에, 넥서스 9400은 올해 4분기에 제공될 예정이다. 주력 제품인 9800에는 800GbE 요구사항을 지원하는 마이그레이션 경로가 포함된다.  새로운 모듈식 데이터센터 스위치 제품군은 슬롯당 14.4TB/s의 완전히 암호화된 대역폭을 갖췄다. 시스코 넥서스 9800 시리즈는 여러 1세대 라인 카드와 패브릭 모듈을 조합하여 57Tb/s에서 115Tb/s까지 확장할 수 있는 8슬롯 및 4슬롯 섀시를 제공한다. 각 라인 카드 슬롯은 400GbE 또는 100GbE 또는 10/25/50GbE 포트를 지원하며, 8 슬롯 옵션은 최대 288개의 400GbE 포트를 지원한다. 이는 현재 9000 시리즈가 지원하는 32개의 포트를 훨씬 웃도는 수준이다. 시스코에 따르면, 9800 시리즈의 특징은 고효율, 고성능의 대용량 ASIC 칩으로 구축된 스위치 라인 카드와 패브릭 모듈이다. 이 ASIC 칩은 부하 분산, 완전히 공유된 패킷 버퍼, 그리고 소규모 패킷용 라인 레이트(line-rate) 성능을 지원한다. 규모와 상관없이 데이터센터 전반에서 고대역폭 애플리케이션을 지원하도록 최적화되어 있다고 업체 측은 설명했다.  시스코는 또한 이번 섀시 설계로 향후 800GbE와 같은 대용량 ASIC 칩 및 고출력 광학 장치를 지원할 수 있는 기반을 마련했다고 말했다.  시스코의 제품 관리 담당 부사장 토마스 샤이베는 "마이크로서비스 아키텍처는 오늘날 애...

시스코 넥서스스위치 400g 400G 스위치 800G 스위치

2022.06.16

시스코가 고대역폭 애플리케이션을 위한 새로운 넥서스 데이터센터 스위치 5종을 공개했다.    시스코가 AI와 클라우드 네이티브 등 고대역폭 애플리케이션을 효과적으로 지원하고자 100/400Gb 이더넷 지원을 강화한 새로운 Nexus 데이터센터 스위치(9332D, 9348D, 9364D, 9800, 9400)를 공개했다.  넥서스 9332D는 지금 바로 구매할 수 있으며, 넥서스 9348D와 넥서스 9364D는 이번 달에 출시될 예정이라고 회사는 밝혔다. 넥서스 9800은 7월에, 넥서스 9400은 올해 4분기에 제공될 예정이다. 주력 제품인 9800에는 800GbE 요구사항을 지원하는 마이그레이션 경로가 포함된다.  새로운 모듈식 데이터센터 스위치 제품군은 슬롯당 14.4TB/s의 완전히 암호화된 대역폭을 갖췄다. 시스코 넥서스 9800 시리즈는 여러 1세대 라인 카드와 패브릭 모듈을 조합하여 57Tb/s에서 115Tb/s까지 확장할 수 있는 8슬롯 및 4슬롯 섀시를 제공한다. 각 라인 카드 슬롯은 400GbE 또는 100GbE 또는 10/25/50GbE 포트를 지원하며, 8 슬롯 옵션은 최대 288개의 400GbE 포트를 지원한다. 이는 현재 9000 시리즈가 지원하는 32개의 포트를 훨씬 웃도는 수준이다. 시스코에 따르면, 9800 시리즈의 특징은 고효율, 고성능의 대용량 ASIC 칩으로 구축된 스위치 라인 카드와 패브릭 모듈이다. 이 ASIC 칩은 부하 분산, 완전히 공유된 패킷 버퍼, 그리고 소규모 패킷용 라인 레이트(line-rate) 성능을 지원한다. 규모와 상관없이 데이터센터 전반에서 고대역폭 애플리케이션을 지원하도록 최적화되어 있다고 업체 측은 설명했다.  시스코는 또한 이번 섀시 설계로 향후 800GbE와 같은 대용량 ASIC 칩 및 고출력 광학 장치를 지원할 수 있는 기반을 마련했다고 말했다.  시스코의 제품 관리 담당 부사장 토마스 샤이베는 "마이크로서비스 아키텍처는 오늘날 애...

2022.06.16

“디지털 인프라 중단 사고의 대가, 점점 비싸지고 있다”

업타임 인스티튜트가 디지털 인프라 중단 요인과 여파를 분석한 '2022 중단 분석 보고서'를 발표했다. 이에 따르면 디지털 인프라 중단이 초래한 비용은 지난 몇 년 동안 꾸준히 증가했다. 중단 횟수의 변화는 크지 않았던 반면, 각 중단에서 복구하는 데 소요한 비용은 점점 더 많아지고 있었다. 보고서는 10만 달러 이상의 손실을 초래한 개별 중산 사고의 비율이 2021년 전체 중단의 47%를 차지했다. 2020년에는 40%였다. 이 리서치 기관은 평균 중단 사고로 인한 비용이 증가하는 추세라고 전했다. 단 중단 사고당 평균 소요 비용을 발표하지는 않았다.  보고서는 또 기업 5곳 중 1곳이 지난 3년 동안 적어도 1회의 “심각한 중단”을 경험했다고 전했다. 막대한 재정적 손실, 인사 사고, 평판 저하, 규정 준수 위반을 초래한 중단이 이에 해당한다. 이 밖에 지난 3년 동안 중단 사고를 경험한 비율은 설문조사에 응한 5명 중 4명이었다.  “중단 사고 다수는 네트워킹 문제로 발생” 전체 중단 사고의 원인 중 가장 높은 요인은 네트워킹 관련 문제였다. 보고서는 클라우드 기술, SDN(소프트웨어 정의 네트워킹), 기타 새로운 네트워킹 종속 아키텍처로의 대규모 이동에 따른 현상일 수 있다고 분석했다. 그러나 심각한 수준의 중단을 일으킨 요인은 전력 관련 문제, 특히 무정전 전원 공급 장치의 고장이었다. 전력 문제는 지난 3년 동안 “중대한 중단 사고” 원인의 43%를 차지했다.  업종별로는 서드파티 서비스 벤더가 서비스 중단을 가장 흔하게 경험했다. 업타임 인스티튜트는 지난 7년 동안 추적한 모든 중단 사고의 2/3가 클라우드 및 호스팅 제공업체, 코로케이션 공급업체 및 통신 회사에서 발생했다고 전했다. 2021년에는 해당 수치가 70%에 이르렀다.  업타임 인스티튜는 또 인간의 실수가 많은 문제의 원인이라고 전했다. 지난 3년 동안 거의 40%의 기업이 인적 오류로 인한 심각한 가동 중단을 경험했으며, 대부분 정해진 프...

업타임 인스티튜트 인프라 중단 인프라 사고 서비스 중단 아웃티지

2022.06.15

업타임 인스티튜트가 디지털 인프라 중단 요인과 여파를 분석한 '2022 중단 분석 보고서'를 발표했다. 이에 따르면 디지털 인프라 중단이 초래한 비용은 지난 몇 년 동안 꾸준히 증가했다. 중단 횟수의 변화는 크지 않았던 반면, 각 중단에서 복구하는 데 소요한 비용은 점점 더 많아지고 있었다. 보고서는 10만 달러 이상의 손실을 초래한 개별 중산 사고의 비율이 2021년 전체 중단의 47%를 차지했다. 2020년에는 40%였다. 이 리서치 기관은 평균 중단 사고로 인한 비용이 증가하는 추세라고 전했다. 단 중단 사고당 평균 소요 비용을 발표하지는 않았다.  보고서는 또 기업 5곳 중 1곳이 지난 3년 동안 적어도 1회의 “심각한 중단”을 경험했다고 전했다. 막대한 재정적 손실, 인사 사고, 평판 저하, 규정 준수 위반을 초래한 중단이 이에 해당한다. 이 밖에 지난 3년 동안 중단 사고를 경험한 비율은 설문조사에 응한 5명 중 4명이었다.  “중단 사고 다수는 네트워킹 문제로 발생” 전체 중단 사고의 원인 중 가장 높은 요인은 네트워킹 관련 문제였다. 보고서는 클라우드 기술, SDN(소프트웨어 정의 네트워킹), 기타 새로운 네트워킹 종속 아키텍처로의 대규모 이동에 따른 현상일 수 있다고 분석했다. 그러나 심각한 수준의 중단을 일으킨 요인은 전력 관련 문제, 특히 무정전 전원 공급 장치의 고장이었다. 전력 문제는 지난 3년 동안 “중대한 중단 사고” 원인의 43%를 차지했다.  업종별로는 서드파티 서비스 벤더가 서비스 중단을 가장 흔하게 경험했다. 업타임 인스티튜트는 지난 7년 동안 추적한 모든 중단 사고의 2/3가 클라우드 및 호스팅 제공업체, 코로케이션 공급업체 및 통신 회사에서 발생했다고 전했다. 2021년에는 해당 수치가 70%에 이르렀다.  업타임 인스티튜는 또 인간의 실수가 많은 문제의 원인이라고 전했다. 지난 3년 동안 거의 40%의 기업이 인적 오류로 인한 심각한 가동 중단을 경험했으며, 대부분 정해진 프...

2022.06.15

시스코, 카탈리스트 및 넥서스 장비용 클라우드 관리 옵션 발표

시스코가 카탈리스트 네트워킹 및 넥서스 데이터센터 장비의 온프레미스 관리에 클라우드 기반 옵션을 추가한다고 발표했다.    시스코가 카탈리스트 제품군과 넥서스 데이터 장비의 클라우드 기반 관리를 향해 큰 발걸음을 내딛었다.  6월 12일부터 16일까지 개최되는 ‘시스코 라이브 고객 이벤트(Cisco Live Customer Event)’에서 시스코는 기업 고객들의 하이브리드 업무 옵션을 지원하는 2개의 클라우드 기반 관리 서비스를 공개했다. 바로 카탈리스트용 클라우드 관리(Cloud Management for Cisco Catalyst) 서비스와 시스코 넥서스 클라우드(Cisco Nexus Cloud)가 그것이다. 카탈리스트 클라우드 모니터링은 현재 사용 가능한 상태이며, 시스코 넥서스 클라우드는 가을에 출시될 예정이다.  클라우드에서의 카탈리스트 관리  먼저 시스코 카탈리스트용 클라우드 관리 서비스는 관리자가 클라우드 기반 머라키(Meraki) 대시보드에서 카탈리스트 9000 스위칭 및 무선 제품군과 브랜치 장치를 관리하고 문제를 해결하도록 지원한다. 즉, 단일 화면에서 다양한 장치와 네트워크를 관리하고 문제를 해결할 수 있다. 카탈리스트 장치 관리를 머라키 클라우드로 이전하려면 기업 사용자가 회사 정보를 기반으로 CLI 명령을 실행하면 된다고 시스코는 설명했다.  시스코의 네트워크 경험 그룹의 수석 부사장 겸 총괄 관리자 크리스 스토리는 향후 추가적인 카탈리스트 유무선 장치를 클라우드 모니터링 및 관리하에 도입할 것이라고 말했다. "핵심 목표는 단순함이다. 특히 캠퍼스 및 액세스 네트워킹을 위해 시스코 전반에 걸쳐 더욱 통합되고 간소화된 관리 환경을 제공하고자 한다"라고 그는 설명했다.  온프레미스 환경에서 카탈리스트 장치를 관리하고자 한다면 2가지 옵션이 있다. 먼저 이 회사의 핵심 온프레미스 관리 패키지인 DNA 센터(DNA Center)를 계속 사용하면 된다. ...

시스코 머라키 머라키대시보드 시스코카탈리스트 시스코넥서스 카탈리스트 넥서스

2022.06.15

시스코가 카탈리스트 네트워킹 및 넥서스 데이터센터 장비의 온프레미스 관리에 클라우드 기반 옵션을 추가한다고 발표했다.    시스코가 카탈리스트 제품군과 넥서스 데이터 장비의 클라우드 기반 관리를 향해 큰 발걸음을 내딛었다.  6월 12일부터 16일까지 개최되는 ‘시스코 라이브 고객 이벤트(Cisco Live Customer Event)’에서 시스코는 기업 고객들의 하이브리드 업무 옵션을 지원하는 2개의 클라우드 기반 관리 서비스를 공개했다. 바로 카탈리스트용 클라우드 관리(Cloud Management for Cisco Catalyst) 서비스와 시스코 넥서스 클라우드(Cisco Nexus Cloud)가 그것이다. 카탈리스트 클라우드 모니터링은 현재 사용 가능한 상태이며, 시스코 넥서스 클라우드는 가을에 출시될 예정이다.  클라우드에서의 카탈리스트 관리  먼저 시스코 카탈리스트용 클라우드 관리 서비스는 관리자가 클라우드 기반 머라키(Meraki) 대시보드에서 카탈리스트 9000 스위칭 및 무선 제품군과 브랜치 장치를 관리하고 문제를 해결하도록 지원한다. 즉, 단일 화면에서 다양한 장치와 네트워크를 관리하고 문제를 해결할 수 있다. 카탈리스트 장치 관리를 머라키 클라우드로 이전하려면 기업 사용자가 회사 정보를 기반으로 CLI 명령을 실행하면 된다고 시스코는 설명했다.  시스코의 네트워크 경험 그룹의 수석 부사장 겸 총괄 관리자 크리스 스토리는 향후 추가적인 카탈리스트 유무선 장치를 클라우드 모니터링 및 관리하에 도입할 것이라고 말했다. "핵심 목표는 단순함이다. 특히 캠퍼스 및 액세스 네트워킹을 위해 시스코 전반에 걸쳐 더욱 통합되고 간소화된 관리 환경을 제공하고자 한다"라고 그는 설명했다.  온프레미스 환경에서 카탈리스트 장치를 관리하고자 한다면 2가지 옵션이 있다. 먼저 이 회사의 핵심 온프레미스 관리 패키지인 DNA 센터(DNA Center)를 계속 사용하면 된다. ...

2022.06.15

블로그 | 서버리스와 컨테이너의 '이유 있는' 결합

서버리스 컴퓨팅이 클라우드 업계의 핵심 서비스로 자리 잡고 있다. 클라우드 모니터링 서비스 업체 데이터도그(DataDog)가 6월에 공개한 보고서에 따르면, 기업 절반 이상이 아마존, 마이크로소프트, 구글 중 한 곳에서 서버리스 컴퓨팅을 사용하고 있는 걸로 나타났다.    불과 2년 전만 해도 서버리스 컴퓨팅 수요는 특정 클라우드 서비스 업체에 몰려 있었는데, 이제 주류 클라우드 업체 3곳 모두 폭발적으로 늘어나는 서버리스 기술 수요에 적극 대응하고 있다. 덕분에 사용자는 선택할 수 있는 기술이 많아졌고, 특정 업체에 종속되는 부담 없이 서버리스 기술을 도입 중이다. 과거 컨테이너 기술이 기업에 확산됐던 것처럼, 서버리스 컴퓨팅도 기업의 핵심 인프라로 여겨지고 있는 셈이다.  데이터도그의 자료를 보면 기업 대부분이 서버리스 컴퓨팅을 컨테이너와 함께 이용하고 있다는 것을 알 수 있다. 가령 2022년 1월 기준 AWS의 서버리스 서비스 람다(Lambda)를 이용하는 고객 중 20%는 AWS의 컨테이너 서비스인 ECS 파게이트(ECS Fargate)를 동시에 사용하고 있었다. 2018년도에 람다와 ECS 파게이트를 함께 이용하는 경우가 거의 0%였다는 점을 고려하면, 수치가 눈에 띄게 증가했다.  두 기술이 함께 쓰이는 이유는 보완할 수 있는 요소가 많기 때문이다. 특히 서버리스는 자동으로 리소스를 관리해주기 때문에 사용자가 직접 프로비저닝할 때 겪는 문제점을 대부분 해소해준다.  예를 들어 컨테이너를 이용할 때는 스토리지나 컴퓨팅 자원의 양을 구체적으로 생각해두지 않는다. 반면에 서버리스에서는 리소스 양을 자동으로 할당하고 관리할 수 있다. 따라서 클라우드 및 컨테이너 기반 시스템을 운영하는 과정에서 자원이 너무 많이 배치되지 않게 어느 정도 도움받을 수 있다.  서버리스와 컨테이너를 동시에 이용할 경우, 장단점은 모두 존재한다.  먼저 장점부터 보자. 컨테이너는 애플리...

AWS 람다 컨테이너 서버리스

2022.06.09

서버리스 컴퓨팅이 클라우드 업계의 핵심 서비스로 자리 잡고 있다. 클라우드 모니터링 서비스 업체 데이터도그(DataDog)가 6월에 공개한 보고서에 따르면, 기업 절반 이상이 아마존, 마이크로소프트, 구글 중 한 곳에서 서버리스 컴퓨팅을 사용하고 있는 걸로 나타났다.    불과 2년 전만 해도 서버리스 컴퓨팅 수요는 특정 클라우드 서비스 업체에 몰려 있었는데, 이제 주류 클라우드 업체 3곳 모두 폭발적으로 늘어나는 서버리스 기술 수요에 적극 대응하고 있다. 덕분에 사용자는 선택할 수 있는 기술이 많아졌고, 특정 업체에 종속되는 부담 없이 서버리스 기술을 도입 중이다. 과거 컨테이너 기술이 기업에 확산됐던 것처럼, 서버리스 컴퓨팅도 기업의 핵심 인프라로 여겨지고 있는 셈이다.  데이터도그의 자료를 보면 기업 대부분이 서버리스 컴퓨팅을 컨테이너와 함께 이용하고 있다는 것을 알 수 있다. 가령 2022년 1월 기준 AWS의 서버리스 서비스 람다(Lambda)를 이용하는 고객 중 20%는 AWS의 컨테이너 서비스인 ECS 파게이트(ECS Fargate)를 동시에 사용하고 있었다. 2018년도에 람다와 ECS 파게이트를 함께 이용하는 경우가 거의 0%였다는 점을 고려하면, 수치가 눈에 띄게 증가했다.  두 기술이 함께 쓰이는 이유는 보완할 수 있는 요소가 많기 때문이다. 특히 서버리스는 자동으로 리소스를 관리해주기 때문에 사용자가 직접 프로비저닝할 때 겪는 문제점을 대부분 해소해준다.  예를 들어 컨테이너를 이용할 때는 스토리지나 컴퓨팅 자원의 양을 구체적으로 생각해두지 않는다. 반면에 서버리스에서는 리소스 양을 자동으로 할당하고 관리할 수 있다. 따라서 클라우드 및 컨테이너 기반 시스템을 운영하는 과정에서 자원이 너무 많이 배치되지 않게 어느 정도 도움받을 수 있다.  서버리스와 컨테이너를 동시에 이용할 경우, 장단점은 모두 존재한다.  먼저 장점부터 보자. 컨테이너는 애플리...

2022.06.09

STT GDC, 서울 ‘제2 데이터센터’ 건립 계획 발표

ST텔레미디어 글로벌 데이터센터(이하 STT GDC)는 서울 가산동에 제2 데이터센터를 설립한다고 발표했다. 제2 데이터센터는 국제 기관투자자와 삼성그룹의 삼성SRA자산운용이 8일 지원한다.    싱가포르 글로벌 데이터센터 서비스 전문 기업인 STT GDC는 삼성SRA자산운용에 데이터센터의 건물부를 임차하고 남은 설비작업(DC fitouts)을 완료한 뒤 2025년 상반기부터 서비스를 개시할 예정이다. 서울 금천구 가산동에 건립될 데이터센터는 연면적 3만1,205평방미터, IT용량 30메가와트 규모이고, 입지 전략적으로 더블역세권(가산디지털단지, 독산), 물류시설 및 지식산업센터와 인접한다. 특히 목동 및 가산의 데이터센터들과 상호연결(interconnection)이 용이해 망중립 데이터센터로서 최적이라고 업체 측은 평가했다.  STT GDC 동북아 CEO인 니콜라스 토는 “우리는 고객들의 니즈를 충족할 다양한 인프라 솔루션을 통해 유연성과 확장성을 제공하는데 전념한다”라며, “서울 데이터센터는 접근이 용이한 전략적 위치에 있으며, 이를 통해 가속화된 디지털 인프라와 클라우드 서비스에 바탕을 둔 여러 혁신의 기회를 열게 될 것으로 기대한다”라고 말했다. ciokr@idg.co.kr

STT GDC

2022.06.08

ST텔레미디어 글로벌 데이터센터(이하 STT GDC)는 서울 가산동에 제2 데이터센터를 설립한다고 발표했다. 제2 데이터센터는 국제 기관투자자와 삼성그룹의 삼성SRA자산운용이 8일 지원한다.    싱가포르 글로벌 데이터센터 서비스 전문 기업인 STT GDC는 삼성SRA자산운용에 데이터센터의 건물부를 임차하고 남은 설비작업(DC fitouts)을 완료한 뒤 2025년 상반기부터 서비스를 개시할 예정이다. 서울 금천구 가산동에 건립될 데이터센터는 연면적 3만1,205평방미터, IT용량 30메가와트 규모이고, 입지 전략적으로 더블역세권(가산디지털단지, 독산), 물류시설 및 지식산업센터와 인접한다. 특히 목동 및 가산의 데이터센터들과 상호연결(interconnection)이 용이해 망중립 데이터센터로서 최적이라고 업체 측은 평가했다.  STT GDC 동북아 CEO인 니콜라스 토는 “우리는 고객들의 니즈를 충족할 다양한 인프라 솔루션을 통해 유연성과 확장성을 제공하는데 전념한다”라며, “서울 데이터센터는 접근이 용이한 전략적 위치에 있으며, 이를 통해 가속화된 디지털 인프라와 클라우드 서비스에 바탕을 둔 여러 혁신의 기회를 열게 될 것으로 기대한다”라고 말했다. ciokr@idg.co.kr

2022.06.08

칼럼 | 네트워크 전문가가 구글 '아퀼라 프로젝트'에 관심 가져야 할 이유

지금 당장은 아니다. 그러나 향후 만만치 않은 데이터센터 워크로드 문제가 출현할 수 있다. 고성능 메시 모델을 구축하려는 구글 아킬라 프로젝트(Aquila project)에 주목해야 할 이유다.  데이터센터 네트워킹을 떠올린다면, 이더넷(Ethernet) 스위치에 관해 생각하기 쉽다. 실제로 이 범주의 기기들은 수십 년 동안 데이터센터 네트워크의 기반으로 동작했다. 오늘날 이더넷 스위치에 대한 수요 중 상당수가 데이터센터에서 창출되고 있기도 하다. 그러나 네트워크 분야의 전문가들은 이미 애플리케이션의 변화를 실감하고 있으며, 데이터센터 네트워크 옵션에 대해 새롭게 생각할 때임을 인정하고 있다. 데이터센터가 바뀌고 있으며, 이는 네트워크도 바뀌어야 한다는 의미로 이어진다. 클라우드 및 클라우드 중심적인 환경이 출현하면서, 잔잔했던 데이터센터 이더넷 스위칭 영역에 혼란을 더하는 2가지 요소가 등장했다. 첫 번째는 가상화였다. 컴퓨터와 애플리케이션 사이에 1:1 관계가 없다는 개념이며, 이로 인해 다수의 컴퓨터들이 애플리케이션 호스팅을 공유했다.  두 번째는 부품화(componentization )였다. 이는 논리적인 부분들로 분리되도록 애플리케이션을 작성한다면, 그것들을 병렬로 구동하고 주문식으로 확장할 수 있다는 아이디어였다. 고장날 경우 원활하게 대체할 수 있다는 장점도 있었다. 이들 2가지 요소가 트래픽과 데이터센터 스위칭에 미치고 있는 영향은 그야말로 엄청났다.   전통적인 단일 구조 애플리케이션들은 사용자와 데이터센터 사이에서 수직적 트래픽을 생성한다. 수십 년 전에는 서비스 버스 및 애플리케이션 간 커플링 등으로 수평적 트래픽을 생성했었다. 그리고 이제 부품화와 가상화가 메시(Mesh) 트래픽을 생성하고 있다. 메시 트래픽에서 메시지는 각종 구성요소들 사이의 복잡한 거미줄에서 교환된다. 전통적인 데이터센터 스위치는 계층 구조에 기반하기 때문에 이 메시 트래픽은 전통적인 모델에 스트레스를 주고 문제를 유발하게 된다....

아킬라 프로젝트 아퀼라 프로젝트 데이터센터 네트워크 이더넷 스위치 메시 네트워크

2022.05.30

지금 당장은 아니다. 그러나 향후 만만치 않은 데이터센터 워크로드 문제가 출현할 수 있다. 고성능 메시 모델을 구축하려는 구글 아킬라 프로젝트(Aquila project)에 주목해야 할 이유다.  데이터센터 네트워킹을 떠올린다면, 이더넷(Ethernet) 스위치에 관해 생각하기 쉽다. 실제로 이 범주의 기기들은 수십 년 동안 데이터센터 네트워크의 기반으로 동작했다. 오늘날 이더넷 스위치에 대한 수요 중 상당수가 데이터센터에서 창출되고 있기도 하다. 그러나 네트워크 분야의 전문가들은 이미 애플리케이션의 변화를 실감하고 있으며, 데이터센터 네트워크 옵션에 대해 새롭게 생각할 때임을 인정하고 있다. 데이터센터가 바뀌고 있으며, 이는 네트워크도 바뀌어야 한다는 의미로 이어진다. 클라우드 및 클라우드 중심적인 환경이 출현하면서, 잔잔했던 데이터센터 이더넷 스위칭 영역에 혼란을 더하는 2가지 요소가 등장했다. 첫 번째는 가상화였다. 컴퓨터와 애플리케이션 사이에 1:1 관계가 없다는 개념이며, 이로 인해 다수의 컴퓨터들이 애플리케이션 호스팅을 공유했다.  두 번째는 부품화(componentization )였다. 이는 논리적인 부분들로 분리되도록 애플리케이션을 작성한다면, 그것들을 병렬로 구동하고 주문식으로 확장할 수 있다는 아이디어였다. 고장날 경우 원활하게 대체할 수 있다는 장점도 있었다. 이들 2가지 요소가 트래픽과 데이터센터 스위칭에 미치고 있는 영향은 그야말로 엄청났다.   전통적인 단일 구조 애플리케이션들은 사용자와 데이터센터 사이에서 수직적 트래픽을 생성한다. 수십 년 전에는 서비스 버스 및 애플리케이션 간 커플링 등으로 수평적 트래픽을 생성했었다. 그리고 이제 부품화와 가상화가 메시(Mesh) 트래픽을 생성하고 있다. 메시 트래픽에서 메시지는 각종 구성요소들 사이의 복잡한 거미줄에서 교환된다. 전통적인 데이터센터 스위치는 계층 구조에 기반하기 때문에 이 메시 트래픽은 전통적인 모델에 스트레스를 주고 문제를 유발하게 된다....

2022.05.30

화웨이, 차세대 데이터센터 공개··· '간소화·지속 가능성' 강조

화웨이가 최근 차세대 데이터센터 시설을 정의하고, 새로운 전력 공급 시스템 파워POD(PowerPOD) 3.0을 30일 공개했다.    이번 출시 행사에서 화웨이 선임 부사장 겸 화웨이 데이터센터 시설팀(Huawei Data Center Facility Team) CEO 찰스 양은 “기술 전문가와 업계 권위자의 광범위하고 심층적인 논의 끝에, ▲지속가능성, ▲간소화, ▲자율 구동 및 ▲신뢰도라는 차세대 데이터센터 시설의 네 가지 특징에 대한 합의에 도달했다”라고 설명했다. 차세대 데이터센터 시설이 모든 데이터센터 재료의 재활용도를 최대한 높이는 한편, 100% 친환경적이고 에너지 효율적인 특징을 지닌다고 회사는 밝혔다. 녹색 자원(전기, 토지 및 물)을 활용하고, 라이프 사이클 전반에 걸쳐 사용한 재료의 재활용도를 최대한 높임으로써 지속가능한 데이터센터를 실현할 수 있다는 설명이다.  또한 회사는 간소화된 구조가 혁신적인 형태의 건물과 장비실을 제공한다고 밝혔다. 1,000대의 랙을 수용하는 데이터센터를 건설하는 데 조립식 모듈형 건설 방식을 사용하면, 약 18개월이 걸리는 건축 기간을 6~9개월로 단축시킬 수 있다.  이어 O&M 자동화, 에너지 효율 최적화 및 운영 자율이 데이터센터의 운영과 유지관리 방법을 바꾼다고 회사는 설명했다. O&M 자동화는 엔지니어가 5분 만에 원격으로 2,000대의 랙을 검사할 수 있도록 지원하며, 에너지 효율 최적화를 통해 1분 만에 140만 개의 독창적인 조합으로 최적의 냉각 전략을 제공하고, 스마트 냉각을 실현할 수 있다는 설명이다.  한편 이번 행사에서 화웨이는 파워POD 3.0이라는 신세대 전력 공급 시스템을 공개했다. 이 시스템은 공간을 40%, 에너지 소비량을 70% 줄이고, 배송 기간을 2개월에서 2주로 단축시키며, SLA 결함률을 38% 감소시킨다고 회사 측은 밝혔다.   화웨이는 차세대 데이터센터를 추구하는 데 있어 기술 ...

화웨이

2022.05.30

화웨이가 최근 차세대 데이터센터 시설을 정의하고, 새로운 전력 공급 시스템 파워POD(PowerPOD) 3.0을 30일 공개했다.    이번 출시 행사에서 화웨이 선임 부사장 겸 화웨이 데이터센터 시설팀(Huawei Data Center Facility Team) CEO 찰스 양은 “기술 전문가와 업계 권위자의 광범위하고 심층적인 논의 끝에, ▲지속가능성, ▲간소화, ▲자율 구동 및 ▲신뢰도라는 차세대 데이터센터 시설의 네 가지 특징에 대한 합의에 도달했다”라고 설명했다. 차세대 데이터센터 시설이 모든 데이터센터 재료의 재활용도를 최대한 높이는 한편, 100% 친환경적이고 에너지 효율적인 특징을 지닌다고 회사는 밝혔다. 녹색 자원(전기, 토지 및 물)을 활용하고, 라이프 사이클 전반에 걸쳐 사용한 재료의 재활용도를 최대한 높임으로써 지속가능한 데이터센터를 실현할 수 있다는 설명이다.  또한 회사는 간소화된 구조가 혁신적인 형태의 건물과 장비실을 제공한다고 밝혔다. 1,000대의 랙을 수용하는 데이터센터를 건설하는 데 조립식 모듈형 건설 방식을 사용하면, 약 18개월이 걸리는 건축 기간을 6~9개월로 단축시킬 수 있다.  이어 O&M 자동화, 에너지 효율 최적화 및 운영 자율이 데이터센터의 운영과 유지관리 방법을 바꾼다고 회사는 설명했다. O&M 자동화는 엔지니어가 5분 만에 원격으로 2,000대의 랙을 검사할 수 있도록 지원하며, 에너지 효율 최적화를 통해 1분 만에 140만 개의 독창적인 조합으로 최적의 냉각 전략을 제공하고, 스마트 냉각을 실현할 수 있다는 설명이다.  한편 이번 행사에서 화웨이는 파워POD 3.0이라는 신세대 전력 공급 시스템을 공개했다. 이 시스템은 공간을 40%, 에너지 소비량을 70% 줄이고, 배송 기간을 2개월에서 2주로 단축시키며, SLA 결함률을 38% 감소시킨다고 회사 측은 밝혔다.   화웨이는 차세대 데이터센터를 추구하는 데 있어 기술 ...

2022.05.30

정의에서 사례까지··· '클라우드옵스' 안내서

클라우드 활용을 늘려감에 따라 클라우드 전략 또한 고도화하려는 기업이 늘고 있다. 성능을 최적화하고 관리 비용을 효율화하며 혁신을 도모할 수 있게 해주는 ‘클라우드옵스’에 대한 관심이 증가하는 이유다.  소프트웨어 제품의 개발에 관여한 적 있다면 ‘데브옵스’라는 말에 익숙할 것이다. 소프트웨어 개발과 IT 운영을 결합한 일련의 관행인 데브옵스는, 개발 수명 주기를 단축하고 지속 배포 및 고품질 제품을 공급하는 것을 목표로 한다. 클라우드 운영과 연관된 개념인 ‘클라우드옵스(CloudOps)’는 기업들이 애플리케이션 개발과 워크로드를 클라우드로 점점 더 이전하면서, 그리고 클라우드 비용이 한층 복잡해지면서 출현했다. 클라우드옵스가 무엇이고, 조직에게 어떤 혜택을 줄 수 있는지, 그리고 기업 내에서 클라우드옵스를 구현할 때 유념해야 할 점은 무엇인지 살펴본다. 클라우드옵스란?  클라우드옵스는 클라우드 환경에서 실행되는 IT 서비스와 워크로드의 전달, 최적화 및 성능을 관리하는 운영 관행이다. 기업이 멀티클라우드, 하이브리드 클라우드, 또는 프라이빗 클라우드 전략을 운영함에 있어 클라우드옵스는 클라우드 기반 프로세스를 위한 절차 및 모범 관행을 확립하기 위해 구현된다. 이는 데브옵스에 의한 애플리케이션의 개발 및 배포와 비슷한 성격을 가진다. 클라우드 운영을 위한 다층 프레임워크  컨설팅 기업 캡제미니 아메리카스(Capgemini Americas)의 부사장이자 클라우드 우수성 센터의 책임자인 제이슨 해치는 “기업이 자사 클라우드 생태계의 측면들을 전반적으로 관리하는 데 도움을 주는 여러 계층으로 된 프레임워크가 클라우드옵스(Holistic CloudOp)의 큰 그림이다”라고 설명했다. 프레임워크 계층 중 하나는 거버넌스 계층(governance layer)이다. 여기에는 클라우드 비용을 제어하고 예산을 관리하는, 핀옵스(FinOps)라고도 알려진 재무 업무 등의 활동을 포함한다. 해치는 “거버넌스 계층에는 무엇이 어떻게 클라우...

클라우드옵스 데브옵스 클라우드 최적화 멀티클라우드

2022.05.26

클라우드 활용을 늘려감에 따라 클라우드 전략 또한 고도화하려는 기업이 늘고 있다. 성능을 최적화하고 관리 비용을 효율화하며 혁신을 도모할 수 있게 해주는 ‘클라우드옵스’에 대한 관심이 증가하는 이유다.  소프트웨어 제품의 개발에 관여한 적 있다면 ‘데브옵스’라는 말에 익숙할 것이다. 소프트웨어 개발과 IT 운영을 결합한 일련의 관행인 데브옵스는, 개발 수명 주기를 단축하고 지속 배포 및 고품질 제품을 공급하는 것을 목표로 한다. 클라우드 운영과 연관된 개념인 ‘클라우드옵스(CloudOps)’는 기업들이 애플리케이션 개발과 워크로드를 클라우드로 점점 더 이전하면서, 그리고 클라우드 비용이 한층 복잡해지면서 출현했다. 클라우드옵스가 무엇이고, 조직에게 어떤 혜택을 줄 수 있는지, 그리고 기업 내에서 클라우드옵스를 구현할 때 유념해야 할 점은 무엇인지 살펴본다. 클라우드옵스란?  클라우드옵스는 클라우드 환경에서 실행되는 IT 서비스와 워크로드의 전달, 최적화 및 성능을 관리하는 운영 관행이다. 기업이 멀티클라우드, 하이브리드 클라우드, 또는 프라이빗 클라우드 전략을 운영함에 있어 클라우드옵스는 클라우드 기반 프로세스를 위한 절차 및 모범 관행을 확립하기 위해 구현된다. 이는 데브옵스에 의한 애플리케이션의 개발 및 배포와 비슷한 성격을 가진다. 클라우드 운영을 위한 다층 프레임워크  컨설팅 기업 캡제미니 아메리카스(Capgemini Americas)의 부사장이자 클라우드 우수성 센터의 책임자인 제이슨 해치는 “기업이 자사 클라우드 생태계의 측면들을 전반적으로 관리하는 데 도움을 주는 여러 계층으로 된 프레임워크가 클라우드옵스(Holistic CloudOp)의 큰 그림이다”라고 설명했다. 프레임워크 계층 중 하나는 거버넌스 계층(governance layer)이다. 여기에는 클라우드 비용을 제어하고 예산을 관리하는, 핀옵스(FinOps)라고도 알려진 재무 업무 등의 활동을 포함한다. 해치는 “거버넌스 계층에는 무엇이 어떻게 클라우...

2022.05.26

프라이빗 클라우드란?··· 정의, 비교, 아키텍처, 과제 살펴보기

하이브리드 멀티클라우드 시대가 도래하면서 프라이빗 클라우드는 다소 애매하고 혼란스러운 개념이 되었다. 프라이빗 클라우드는 스토리지와 컴퓨트, 메모리 자원을 효율적으로 사용할 수 있으며, 기업 애플리케이션에 더 빠른 응답시간을 제공하며, 데이터의 저장과 관련된 규제를 준수할 수 있도록 해준다.     프라이빗 클라우드의 정의 프라이빗 클라우드란 개념은 비교적 단순하고 직설적이다. NIST는 2013년 NIST 클라우드 컴퓨팅 표준 로드맵에서 “프라이빗 클라우드 인프라는 여러 소비자(예를 들어, 사업부서)로 이루어진 단일 조직에 의해 독점적인 사용을 위해 프로비저닝된다”고 설명했다. 여기서 중요한 것은 프라이빗 클라우드 인프라라고 해서 온프레미스에 위치하거나 심지어 해당 인프라를 사용하는 조직이 소유해야 하는 것은 아니라는 점이다. 이 정의는 현재 전 세계적인 표준으로 받아들여지고 있다. 기업은 IBM이나 마이크로소프트 같은 클라우드 서비스 업체에 자사 프라이빗 클라우드의 호스팅을 맡길 수 있다. 아마존 아웃포스트나 HPE 그린레이크 같은 솔루션을 이용해 온프레미스 프라이빗 클라우드를 구축하고 관리할 수도 있다. 아니면 모든 것을 직접 구축하는 방식으로 기존 데이터센터를 프라이빗 클라우드로 현대화할 수도 있다. 어떤 접근법을 취하든 한 가지는 분명하다. 프라이빗 클라우드는 성장 중이다. IDC는 클라우드 서비스는 물론, 하드웨어, 소프트웨어, 전문 서비스 등을 포함한 총 클라우드 지출이 2025년에 1초 3,000억 달러를 넘을 것으로 전망한다. 연평균 성장률은 무려 16.9%이다. IDC의 예측대로라면, 프라이빗 클라우드 서비스의 성장 속도는 31.0%로 더 빠르다. 프라이빗 클라우드 인프라만 놓고 보면, 2021년 지출 규모가 총 225억 달러로, 11.8% 증가했다. 이 중 46%는 온프레미스 환경에 배치됐는데, 기업의 프라이빗 클라우드 배치가 온프레미스와 호스팅으로 고르게 나눠졌다는 것을 알 수 있다.   프라이빗 클라...

프라이빗클라우드 하이브리드클라우드 멀티클라우드

2022.05.17

하이브리드 멀티클라우드 시대가 도래하면서 프라이빗 클라우드는 다소 애매하고 혼란스러운 개념이 되었다. 프라이빗 클라우드는 스토리지와 컴퓨트, 메모리 자원을 효율적으로 사용할 수 있으며, 기업 애플리케이션에 더 빠른 응답시간을 제공하며, 데이터의 저장과 관련된 규제를 준수할 수 있도록 해준다.     프라이빗 클라우드의 정의 프라이빗 클라우드란 개념은 비교적 단순하고 직설적이다. NIST는 2013년 NIST 클라우드 컴퓨팅 표준 로드맵에서 “프라이빗 클라우드 인프라는 여러 소비자(예를 들어, 사업부서)로 이루어진 단일 조직에 의해 독점적인 사용을 위해 프로비저닝된다”고 설명했다. 여기서 중요한 것은 프라이빗 클라우드 인프라라고 해서 온프레미스에 위치하거나 심지어 해당 인프라를 사용하는 조직이 소유해야 하는 것은 아니라는 점이다. 이 정의는 현재 전 세계적인 표준으로 받아들여지고 있다. 기업은 IBM이나 마이크로소프트 같은 클라우드 서비스 업체에 자사 프라이빗 클라우드의 호스팅을 맡길 수 있다. 아마존 아웃포스트나 HPE 그린레이크 같은 솔루션을 이용해 온프레미스 프라이빗 클라우드를 구축하고 관리할 수도 있다. 아니면 모든 것을 직접 구축하는 방식으로 기존 데이터센터를 프라이빗 클라우드로 현대화할 수도 있다. 어떤 접근법을 취하든 한 가지는 분명하다. 프라이빗 클라우드는 성장 중이다. IDC는 클라우드 서비스는 물론, 하드웨어, 소프트웨어, 전문 서비스 등을 포함한 총 클라우드 지출이 2025년에 1초 3,000억 달러를 넘을 것으로 전망한다. 연평균 성장률은 무려 16.9%이다. IDC의 예측대로라면, 프라이빗 클라우드 서비스의 성장 속도는 31.0%로 더 빠르다. 프라이빗 클라우드 인프라만 놓고 보면, 2021년 지출 규모가 총 225억 달러로, 11.8% 증가했다. 이 중 46%는 온프레미스 환경에 배치됐는데, 기업의 프라이빗 클라우드 배치가 온프레미스와 호스팅으로 고르게 나눠졌다는 것을 알 수 있다.   프라이빗 클라...

2022.05.17

구글이 포스트그레SQL 시장에서 AWS, 애저와 어깨를 겨룰 수 있는 이유

레거시에서 클라우드의 오픈소스 데이터베이스로 데이터를 옮기는 기업이 증가하는 가운데 구글 클라우드 플랫폼(GCP)이 포스트그레SQL(PostgreSQL)과 호환되는 완전 관리 서비스형 데이터베이스(DBaaS)를 알로이DB(AlloyDB)라는 이름으로 제공하고 있다. 알로이DB는 현재 공개 프리뷰 단계이며 아마존 오로라(Aurora), 마이크로소프트 애저의 포스트그레SQL용 데이터베이스 등과는 경쟁 관계에 있다.   가트너에 따르면 2022년까지 모든 데이터베이스의 75%가 클라우드 플랫폼에 구축되거나 마이그레이션될 전망이다. 또한 온프레미스 시스템으로의 복귀를 한 번이라도 고려한 적이 있는 기업은 5%에 불과하다. 가트너는 이 추세를 견인하는 원동력은 분석 용도의 데이터베이스 사용이라고 말했다.   또한 가트너는 레거시 데이터베이스의 50% 이상이 오픈소스로 전환되는 과정에 있으며 새로운 애플리케이션 개발의 70% 이상이 오픈소스 데이터베이스를 기반으로 이뤄지고 있다고 전했다. 데이터베이스 관리 시스템으로 포스트그레SQL을 선택하는 기업도 느는 추세다.   포스트그레SQL을 도입하는 이유는? 애널리스트는 구글 클라우드와 AWS, 마이크로소프트가 포스트그레SQL로 초점을 옮긴 이유는 데이터베이스 중에서 포스트그레SQL의 인기가 상승 중인 데 있다고 말한다.   레드몽크(RedMonk)의 수석 애널리스트 스티븐 오그래디는 “포스트그레SQL에 대한 관심과 사용이 다시 증가한 것은 확실하다. 가장 큰 이유는 잠재적인 제공업체가 많은 오픈소스 데이터베이스라는 점, 그리고 다용도 데이터베이스로서 모든 종류의 워크로드에 맞게 조정이 가능하다는 점에 있다”라고 말했다.   db인사이트(dbInsight)의 대표이자 창업자인 토니 베어는 핵심 기술과 스킬을 활용하는 포스트그레SQL 기반의 거대한 데이터베이스 생태계를 바탕으로 표준 엔터프라이즈급 오픈소스 데이터베이스로의 입지를 갖추고 있다고 말했다.   다른 전문가는 포...

오픈소스데이터베이스 포스트그레SQL 알로이DB

2022.05.16

레거시에서 클라우드의 오픈소스 데이터베이스로 데이터를 옮기는 기업이 증가하는 가운데 구글 클라우드 플랫폼(GCP)이 포스트그레SQL(PostgreSQL)과 호환되는 완전 관리 서비스형 데이터베이스(DBaaS)를 알로이DB(AlloyDB)라는 이름으로 제공하고 있다. 알로이DB는 현재 공개 프리뷰 단계이며 아마존 오로라(Aurora), 마이크로소프트 애저의 포스트그레SQL용 데이터베이스 등과는 경쟁 관계에 있다.   가트너에 따르면 2022년까지 모든 데이터베이스의 75%가 클라우드 플랫폼에 구축되거나 마이그레이션될 전망이다. 또한 온프레미스 시스템으로의 복귀를 한 번이라도 고려한 적이 있는 기업은 5%에 불과하다. 가트너는 이 추세를 견인하는 원동력은 분석 용도의 데이터베이스 사용이라고 말했다.   또한 가트너는 레거시 데이터베이스의 50% 이상이 오픈소스로 전환되는 과정에 있으며 새로운 애플리케이션 개발의 70% 이상이 오픈소스 데이터베이스를 기반으로 이뤄지고 있다고 전했다. 데이터베이스 관리 시스템으로 포스트그레SQL을 선택하는 기업도 느는 추세다.   포스트그레SQL을 도입하는 이유는? 애널리스트는 구글 클라우드와 AWS, 마이크로소프트가 포스트그레SQL로 초점을 옮긴 이유는 데이터베이스 중에서 포스트그레SQL의 인기가 상승 중인 데 있다고 말한다.   레드몽크(RedMonk)의 수석 애널리스트 스티븐 오그래디는 “포스트그레SQL에 대한 관심과 사용이 다시 증가한 것은 확실하다. 가장 큰 이유는 잠재적인 제공업체가 많은 오픈소스 데이터베이스라는 점, 그리고 다용도 데이터베이스로서 모든 종류의 워크로드에 맞게 조정이 가능하다는 점에 있다”라고 말했다.   db인사이트(dbInsight)의 대표이자 창업자인 토니 베어는 핵심 기술과 스킬을 활용하는 포스트그레SQL 기반의 거대한 데이터베이스 생태계를 바탕으로 표준 엔터프라이즈급 오픈소스 데이터베이스로의 입지를 갖추고 있다고 말했다.   다른 전문가는 포...

2022.05.16

“미래의 데이터센터 인프라는...” 인텔, IPU 로드맵 공개

인텔의 전망에 따르면 향후 데이터센터에서는 ASIC 기반의 프로그래머블 CPU로 구동되는 서버의 비중이 크게 커진다. 인텔이 CPU 오버헤드를 줄이도록 설계된 프로그래머블 네트워킹 장치인 IPU(Infrastructure Processing Unit)의 개발에 사활을 걸고 있는 배경이다.   인텔의 초기 IPU는 제온 CPU와 FPGA를 결합한 형태다. 그러나 궁극적으로는 개방형 시스템 기반 IPDK(Infrastructure Programmer Development Kit) 소프트웨어로 사용자 정의 및 제어가 가능한 강력한 ASIC로 변형될 예정이다. 리눅스 상에서 실행되는 IPDK는, SPDK, DPDK 및 P4와 같은 프로그래밍 툴을 사용하여 네트워크 및 스토리지 가상화뿐만 아니라 워크로드 프로비저닝을 제어할 수 있다. 이번 주 텍사스에서 열린 인텔 비전 창립 행사에서 인텔은 데이터센터에서 미래의 IPU가 어떻게 작동할지에 대해 밝혔다. IPU 개발을 위한 로드맵을 제시하고 회사의 포트폴리오가 데이터센터 계획의 중요한 부분이 될 이유를 소개했다. IPU 로드맵과 관련해 구체적으로 인텔은 연말까지 200Gb IPU 2종를 선보일 것이라고 밝혔다. 마운트 에반스라는 코드명의 IPU는 알파벳의 구글 클라우드 그룹과 함께 개발된 것이다. 하이엔드 및 하이퍼스케일러 데이터센터 서버를 목표로 한다. ASIC 기반의 마운트 에반스 IPU는 v스위치 오프로드, 방화벽 및 가상 라우팅과 같은 전통적인 사용 사례를 지원하는 기종이다. 이 IPU는 NVMe 장치를 에뮬레이트 하기 위해서 인텔 옵테인 기술에서 확장된 하드웨어 가속 NVM 스토리지 인터페이스를 구현한다. 코드명이 오크 스프링스 캐년인 두 번째 IPU는, 맞춤형 프로그래밍 가능 논리로 네트워킹을 처리하는 인텔의 차세대 FPGA이다. 제온 D 프로세서와 인텔 애질렉스 FPGA가 주요 요소로 구성된다. 개방형 가상 스위치(OVS)와 같은 워크로드와 함게 NVMe와 같은 스토리지 기능을 위한 네트...

인텔 IPU DPU 스마트 NIC IPDK

2022.05.12

인텔의 전망에 따르면 향후 데이터센터에서는 ASIC 기반의 프로그래머블 CPU로 구동되는 서버의 비중이 크게 커진다. 인텔이 CPU 오버헤드를 줄이도록 설계된 프로그래머블 네트워킹 장치인 IPU(Infrastructure Processing Unit)의 개발에 사활을 걸고 있는 배경이다.   인텔의 초기 IPU는 제온 CPU와 FPGA를 결합한 형태다. 그러나 궁극적으로는 개방형 시스템 기반 IPDK(Infrastructure Programmer Development Kit) 소프트웨어로 사용자 정의 및 제어가 가능한 강력한 ASIC로 변형될 예정이다. 리눅스 상에서 실행되는 IPDK는, SPDK, DPDK 및 P4와 같은 프로그래밍 툴을 사용하여 네트워크 및 스토리지 가상화뿐만 아니라 워크로드 프로비저닝을 제어할 수 있다. 이번 주 텍사스에서 열린 인텔 비전 창립 행사에서 인텔은 데이터센터에서 미래의 IPU가 어떻게 작동할지에 대해 밝혔다. IPU 개발을 위한 로드맵을 제시하고 회사의 포트폴리오가 데이터센터 계획의 중요한 부분이 될 이유를 소개했다. IPU 로드맵과 관련해 구체적으로 인텔은 연말까지 200Gb IPU 2종를 선보일 것이라고 밝혔다. 마운트 에반스라는 코드명의 IPU는 알파벳의 구글 클라우드 그룹과 함께 개발된 것이다. 하이엔드 및 하이퍼스케일러 데이터센터 서버를 목표로 한다. ASIC 기반의 마운트 에반스 IPU는 v스위치 오프로드, 방화벽 및 가상 라우팅과 같은 전통적인 사용 사례를 지원하는 기종이다. 이 IPU는 NVMe 장치를 에뮬레이트 하기 위해서 인텔 옵테인 기술에서 확장된 하드웨어 가속 NVM 스토리지 인터페이스를 구현한다. 코드명이 오크 스프링스 캐년인 두 번째 IPU는, 맞춤형 프로그래밍 가능 논리로 네트워킹을 처리하는 인텔의 차세대 FPGA이다. 제온 D 프로세서와 인텔 애질렉스 FPGA가 주요 요소로 구성된다. 개방형 가상 스위치(OVS)와 같은 워크로드와 함게 NVMe와 같은 스토리지 기능을 위한 네트...

2022.05.12

데이터센터 GPU 삼파전··· '독보적 선두·역전의 명수·전통의 강호'가 맞붙었다

현대의 GPU는 게임용 3D 가속기로서 시작됐다. 그러나 지난 20년에 걸쳐 고성능 컴퓨팅 및 인공지능 애플리케이션을 위한 엔터프라이즈 서버 프로세서로서도 변신하고 있다. 이제 GPU는 슈퍼컴퓨팅, AI 훈련 및 추론, 신약 개발, 재무 모델링, 의학 이미징에서 성능을 좌우하는 존재다. 또한 이들은 GPU로 구동되는 관계형 데이터베이스 등 CPU가 감당하기 버거운 상황의 작업들에도 적용되곤 한다. GPU 수요가 증가함에 따라 서버용 GPU를 만드는 업체 간의 경쟁이 뜨거워지고 있다. 경쟁 업체는 3곳, 즉 엔비디아, AMD, 인텔뿐이다. 인텔은 타사 GPU의 대안으로서 자리매김하려는 시도에서 이미 2차례 실패했지만 현재 3번째 시도를 감행하고 있다.    데이터센터 GPU의 중요성  이들 세 회사는 데이터센터 GPU 수요를 비즈니스 기회로 바라본다. GPU는 기업 데이터센터와 하이퍼스케일러 네트워크에서 인공지능(AI)과 머신러닝(ML)에 필수적인 수많은 연산을 처리하는 데 CPU보다 더 적합하다. CPU도 이를 처리할 수 있지만 시간이 더 오래 걸린다. GPU는 복잡한 수학 문제를 개별 작업들로 분리해 병렬로 처리하도록 설계되기 때문에 문제에 따라 푸는 속도가 더 빠르다. GPU는 대개 범용 CPU보다 코어 수가 훨씬 더 많다. 예를 들어 인텔의 제온 CPU는 최대 28개의 코어이고 AMD의 에픽(Epyc) 서버 CPU는 최대 64개의 코어를 가진다. 이와 대조적으로 엔비디아의 최신 GPU 세대인 암페어(Ampere)는 6,912개의 코어를 가지며, 이들은 모두 한가지 일, 다시 말해 수학 처리, 구체적으로 부동 소수점 연산을 병렬로 실행한다.    GPU의 성능은 GPU가 초당 수행할 수 있는 부동 소수점 연산의 수로 측정된다(FLOPS). 때때로 이 수치는 측정에 사용된 표준 부동 소수점 형식을 명시한다(예. FP64).  그렇다면 올해 서버 분야의 GPU에서 무슨 일이 펼쳐질까? 자못 흥...

GPU 서버 병렬 컴퓨팅 FLOPS FP64 엔비디아 AMD 인텔 TSMC 호퍼 인스팅트 폰테 베키오

2022.05.11

현대의 GPU는 게임용 3D 가속기로서 시작됐다. 그러나 지난 20년에 걸쳐 고성능 컴퓨팅 및 인공지능 애플리케이션을 위한 엔터프라이즈 서버 프로세서로서도 변신하고 있다. 이제 GPU는 슈퍼컴퓨팅, AI 훈련 및 추론, 신약 개발, 재무 모델링, 의학 이미징에서 성능을 좌우하는 존재다. 또한 이들은 GPU로 구동되는 관계형 데이터베이스 등 CPU가 감당하기 버거운 상황의 작업들에도 적용되곤 한다. GPU 수요가 증가함에 따라 서버용 GPU를 만드는 업체 간의 경쟁이 뜨거워지고 있다. 경쟁 업체는 3곳, 즉 엔비디아, AMD, 인텔뿐이다. 인텔은 타사 GPU의 대안으로서 자리매김하려는 시도에서 이미 2차례 실패했지만 현재 3번째 시도를 감행하고 있다.    데이터센터 GPU의 중요성  이들 세 회사는 데이터센터 GPU 수요를 비즈니스 기회로 바라본다. GPU는 기업 데이터센터와 하이퍼스케일러 네트워크에서 인공지능(AI)과 머신러닝(ML)에 필수적인 수많은 연산을 처리하는 데 CPU보다 더 적합하다. CPU도 이를 처리할 수 있지만 시간이 더 오래 걸린다. GPU는 복잡한 수학 문제를 개별 작업들로 분리해 병렬로 처리하도록 설계되기 때문에 문제에 따라 푸는 속도가 더 빠르다. GPU는 대개 범용 CPU보다 코어 수가 훨씬 더 많다. 예를 들어 인텔의 제온 CPU는 최대 28개의 코어이고 AMD의 에픽(Epyc) 서버 CPU는 최대 64개의 코어를 가진다. 이와 대조적으로 엔비디아의 최신 GPU 세대인 암페어(Ampere)는 6,912개의 코어를 가지며, 이들은 모두 한가지 일, 다시 말해 수학 처리, 구체적으로 부동 소수점 연산을 병렬로 실행한다.    GPU의 성능은 GPU가 초당 수행할 수 있는 부동 소수점 연산의 수로 측정된다(FLOPS). 때때로 이 수치는 측정에 사용된 표준 부동 소수점 형식을 명시한다(예. FP64).  그렇다면 올해 서버 분야의 GPU에서 무슨 일이 펼쳐질까? 자못 흥...

2022.05.11

“2025년 4천 큐비트 달성”··· IBM, '실용적 양자 시스템' 향한 로드맵 발표

IBM이 양자 컴퓨팅 로드맵을 제시했다. 전통적인 컴퓨터 하드웨어와 퀀텀 병렬 프로세싱, 오류 완화를 모두 통합한 점이 두드러진다.   양자 컴퓨팅 분야에서 원대한 계획을 가진 기업 중 하나가 IBM이다. 이 회사는 그러나 아직 갈 길이 멀다는 현실 또한 인정하고 있다.  IBM은 이번 주 열리고 있는 회사의 씽크! 행사에서 4,000 큐비트 시스템을 2025년까지 구축한다는 목표를 제시했다. 이와 관련해 눈에 띄는 발표 중 하나는 “실용적인 퀀텀 컴퓨팅 시스템”을 개발하려 한다는 발표했다. 워크로드를 효율적으로 분산하고 여러 인프라스트럭처 과제를 해결할 수 있는 지능형 소프트웨어 오케스트레이션 레이어를 갖추려 한다는 설명이다.  IBM은 “내년에는 특정 사용 사례에 퀀텀 소프트웨어 애플리케이션을 프로토타이핑하기 시작할 수 있을 것으로 기대한다”라며, “첫 테스트 케이스, 즉 머신러닝 영역에서 이러한 서비스들을 정의하기 시작할 것이다. 여러 파트너 기업들과 협력해 유용한 양자 컴퓨팅 소프트웨어 애플리케이션을 향한 진전을 가속화할 것”이라고 전했다.  IBM은 현재 127큐비트 처리를 지원하는 이글(Eagle) 양자 프로세서를 보유하고 있으며, 연말까지 433큐비트 프로세서인 오스프리(Osprey)를 출시할 계획이다. 2023년에는 1,121 큐비트의 콘도르(Condor) 프로세서가 출시될 예정이다.  IBM은 2025년 등장할 4,000큐비트 프로세서와 관련해 구체적인 방안도 제시했다. 1,386큐비트의 쿠카부라(ookaburra) 프로세서를 3개 묶어서 총 4,158큐비트를 달성한다는 설명이다.  이 목표를 달성하기 위해 IBM와 파트너 기업들은 양자 작업을 저해할 수 있는 오류를 제거하는 한편, 멀티 시스템을 제어 및 연결할 수 있는 각종 소프트웨어를 새롭게 개발한다는 방침이다.  IBM 연구진은 이번 계획을 소개하는 회사 블로그에서 “양자 중심적 슈퍼 컴퓨터를 구축하는 것이 우...

IBM 양자 컴퓨터 퀀텀 컴퓨터 퀴스킷

2022.05.11

IBM이 양자 컴퓨팅 로드맵을 제시했다. 전통적인 컴퓨터 하드웨어와 퀀텀 병렬 프로세싱, 오류 완화를 모두 통합한 점이 두드러진다.   양자 컴퓨팅 분야에서 원대한 계획을 가진 기업 중 하나가 IBM이다. 이 회사는 그러나 아직 갈 길이 멀다는 현실 또한 인정하고 있다.  IBM은 이번 주 열리고 있는 회사의 씽크! 행사에서 4,000 큐비트 시스템을 2025년까지 구축한다는 목표를 제시했다. 이와 관련해 눈에 띄는 발표 중 하나는 “실용적인 퀀텀 컴퓨팅 시스템”을 개발하려 한다는 발표했다. 워크로드를 효율적으로 분산하고 여러 인프라스트럭처 과제를 해결할 수 있는 지능형 소프트웨어 오케스트레이션 레이어를 갖추려 한다는 설명이다.  IBM은 “내년에는 특정 사용 사례에 퀀텀 소프트웨어 애플리케이션을 프로토타이핑하기 시작할 수 있을 것으로 기대한다”라며, “첫 테스트 케이스, 즉 머신러닝 영역에서 이러한 서비스들을 정의하기 시작할 것이다. 여러 파트너 기업들과 협력해 유용한 양자 컴퓨팅 소프트웨어 애플리케이션을 향한 진전을 가속화할 것”이라고 전했다.  IBM은 현재 127큐비트 처리를 지원하는 이글(Eagle) 양자 프로세서를 보유하고 있으며, 연말까지 433큐비트 프로세서인 오스프리(Osprey)를 출시할 계획이다. 2023년에는 1,121 큐비트의 콘도르(Condor) 프로세서가 출시될 예정이다.  IBM은 2025년 등장할 4,000큐비트 프로세서와 관련해 구체적인 방안도 제시했다. 1,386큐비트의 쿠카부라(ookaburra) 프로세서를 3개 묶어서 총 4,158큐비트를 달성한다는 설명이다.  이 목표를 달성하기 위해 IBM와 파트너 기업들은 양자 작업을 저해할 수 있는 오류를 제거하는 한편, 멀티 시스템을 제어 및 연결할 수 있는 각종 소프트웨어를 새롭게 개발한다는 방침이다.  IBM 연구진은 이번 계획을 소개하는 회사 블로그에서 “양자 중심적 슈퍼 컴퓨터를 구축하는 것이 우...

2022.05.11

IDG 설문조사

회사명:한국IDG 제호: ITWorld 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아00743 등록일자 : 2009년 01월 19일

발행인 : 박형미 편집인 : 박재곤 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2022 International Data Group. All rights reserved.

10.5.0.8