Offcanvas

������ ���������

시스코가 양자 기술에 눈독 들이는 이유

지금은 아니다. 그러나 내년 이후에는 시스코가 주요 양자 컴퓨팅 업체로 부상할 수도 있다. 시스코가 크게 투자하는 분야 중 하나는 광자학(photonics) 개발이다. 이를 통해 양자 통신이 가능해질 뿐만 아니라 양자 컴퓨팅, 네트워킹, 암호학을 위한 기타 하드웨어 및 소프트웨어 기술이 가능해진다.  양자 기술 개발은 시스코 EVP 겸 총괄관리자 겸 최고전략책임자 리즈 센토니의 2022년 예측 리스트 중 상위 항목이기도 했다. 센토니는 “양자 컴퓨팅, 통신, 보안을 통해 더욱 빨라지고 안전해질 미래에는 지연값이 낮아지고 대역폭은 높아진 발전된 인터넷을 통해 시스템의 작동 및 통신 방식을 재창조할 필요가 있다”면서 “양자 컴퓨팅과 보안은 음성 및 데이터 정보를 비트 및 바이트 단위로 스트리밍하는 고전적인 통신 네트워크와는 매우 다른 방식으로 상호 연결될 것”이라고 밝혔다. 시스코는 특히 향후 양자 기반 네트워크, 데이터센터, 인터넷 기술의 개발에 관심을 두고 있다. 센토니는 “양자 네트워킹으로 디지털 장치 간에 해킹이 불가능한 새로운 종류의 완벽한 고품질 보안 연결이 가능하고 이를 통해 사기 거래 예방은 물론 음성 및 데이터의 간섭과 스누핑 예방도 가능해진다”면서 “이러한 모든 가능성은 현재 우리가 알고 있는 인터넷의 모습을 바꿔 놓을 것”이라고 말했다. 시스코 DE(Distinguished Engineer) 겸 신흥 기술 및 배양 그룹 연구 팀장 라마나 컴펠라는 시스코의 비전이 크게 두 부분으로 나뉜다고 설명했다. 고전적인 근거리 통신망(LAN) 개념을 여러 대의 양자 컴퓨터 통신에 적용하여 큰 문제를 해결하는 양자 데이터센터를 구축하는 것이 하나라면, 양자 서버로부터 받은 양자 비트(큐비트(qubit))를 고속 전송하여 상용급 애플리케이션을 처리하는 양자 기반 네트워크를 구축하는 것이 나머지 하나다. 컴펠라는 “우리가 그리는 모습은 고전적인 신호 전달 기술은 물론 광자학을 활용한 서버 간 큐비트 전송 기술도 지원하는 일종의 하이브리드 네...

시스코 퀀텀 양자 네트워크 광자학 포토닉스 분산 컴퓨팅 양자 인터넷

2022.01.24

지금은 아니다. 그러나 내년 이후에는 시스코가 주요 양자 컴퓨팅 업체로 부상할 수도 있다. 시스코가 크게 투자하는 분야 중 하나는 광자학(photonics) 개발이다. 이를 통해 양자 통신이 가능해질 뿐만 아니라 양자 컴퓨팅, 네트워킹, 암호학을 위한 기타 하드웨어 및 소프트웨어 기술이 가능해진다.  양자 기술 개발은 시스코 EVP 겸 총괄관리자 겸 최고전략책임자 리즈 센토니의 2022년 예측 리스트 중 상위 항목이기도 했다. 센토니는 “양자 컴퓨팅, 통신, 보안을 통해 더욱 빨라지고 안전해질 미래에는 지연값이 낮아지고 대역폭은 높아진 발전된 인터넷을 통해 시스템의 작동 및 통신 방식을 재창조할 필요가 있다”면서 “양자 컴퓨팅과 보안은 음성 및 데이터 정보를 비트 및 바이트 단위로 스트리밍하는 고전적인 통신 네트워크와는 매우 다른 방식으로 상호 연결될 것”이라고 밝혔다. 시스코는 특히 향후 양자 기반 네트워크, 데이터센터, 인터넷 기술의 개발에 관심을 두고 있다. 센토니는 “양자 네트워킹으로 디지털 장치 간에 해킹이 불가능한 새로운 종류의 완벽한 고품질 보안 연결이 가능하고 이를 통해 사기 거래 예방은 물론 음성 및 데이터의 간섭과 스누핑 예방도 가능해진다”면서 “이러한 모든 가능성은 현재 우리가 알고 있는 인터넷의 모습을 바꿔 놓을 것”이라고 말했다. 시스코 DE(Distinguished Engineer) 겸 신흥 기술 및 배양 그룹 연구 팀장 라마나 컴펠라는 시스코의 비전이 크게 두 부분으로 나뉜다고 설명했다. 고전적인 근거리 통신망(LAN) 개념을 여러 대의 양자 컴퓨터 통신에 적용하여 큰 문제를 해결하는 양자 데이터센터를 구축하는 것이 하나라면, 양자 서버로부터 받은 양자 비트(큐비트(qubit))를 고속 전송하여 상용급 애플리케이션을 처리하는 양자 기반 네트워크를 구축하는 것이 나머지 하나다. 컴펠라는 “우리가 그리는 모습은 고전적인 신호 전달 기술은 물론 광자학을 활용한 서버 간 큐비트 전송 기술도 지원하는 일종의 하이브리드 네...

2022.01.24

구석까지 스마트해지면?··· '엣지·IoT + AI' 가능성에 주목하는 기업들

‘엣지’에 AI를 접목시킴으로써 얻을 수 있는 혜택은 다각적이다. 레이턴시를 줄이고 네트워크 비용을 아낄 수 있는 것은 물론, 보안을 개선할 수 있다. 기업에 따라서는 분산 AI의 위력을 누릴 수 있기도 하다.  AI는 더 이상 중앙의 대형 데이터센터에 국한되지 않는다. 전구부터 자동차까지 많은 것들에 ‘스마트’라는 수식어가 붙는다. AI 기능성을 엣지(Edge)에 적용함으로써 기업들은 지연 속도를 낮추고 성능을 개선하며 대역폭 요건을 낮추고 장치가 네트워크 연결이 없는 상황에서도 계속 작동하도록 할 수 있다.  엣지에서 AI를 사용하게 하는 주요 동인 중 하나는 현장에서 처리되는 데이터를 중앙의 클라우드 컴퓨팅 솔루션과 전통적인 데이터센터에서 처리하는 경우 데이터 물량 때문에 네트워크 속도가 느려지기 때문이다.  부즈 앨런 해밀턴(Booz Allen Hamilton)의 부사장 키 리는 “처리를 위해 모든 데이터를 중앙의 클라우드로 전송해야 하기 때문에 네트워크 대역폭과 지연 속도의 한계가 높아졌다”라고 말했다. AI 지원 엣지 컴퓨팅(AI-enabled edge computing)의 시대가 열리고 있다.   봇(Bot)과의 전쟁 아카마이(Akamai)만큼 이 문제를 체험하는 기업은 드물다. 아카마이는 전 세계에서 가장 큰 콘텐츠 유통 네트워크를 운영하고 있다. 최근 조사에 따르면 135개 이상의 국가에서 약 32만 5,000대의 서버로 매초마다 100Tb 이상의 웹 트래픽을 제공하고 있었다.  엣지 컴퓨팅은 성능과 보안을 개선하는 열쇠라고 아카마이의 글로벌 제품 및 산업 마케팅 부사장 아리 웨일이 말했다. ‘봇’이 대표적이다. “봇들은 인터넷에서 엄청난 문제가 되고 있다”고 웨일이 말했다. 이것들은 자동화된 크리덴셜 스터핑(Credential Stuffing)과 서비스 거부 공격으로 고객들을 공격한다. 또한 쓸모 없는 트래픽으로 파이프를 막아 아카마이에 비용을 발생시킨다. 사이버 범죄자들도 봇을 사...

엣지 아카마이 분산 AI 캡제미니 이트론 분산 컴퓨팅

2021.03.29

‘엣지’에 AI를 접목시킴으로써 얻을 수 있는 혜택은 다각적이다. 레이턴시를 줄이고 네트워크 비용을 아낄 수 있는 것은 물론, 보안을 개선할 수 있다. 기업에 따라서는 분산 AI의 위력을 누릴 수 있기도 하다.  AI는 더 이상 중앙의 대형 데이터센터에 국한되지 않는다. 전구부터 자동차까지 많은 것들에 ‘스마트’라는 수식어가 붙는다. AI 기능성을 엣지(Edge)에 적용함으로써 기업들은 지연 속도를 낮추고 성능을 개선하며 대역폭 요건을 낮추고 장치가 네트워크 연결이 없는 상황에서도 계속 작동하도록 할 수 있다.  엣지에서 AI를 사용하게 하는 주요 동인 중 하나는 현장에서 처리되는 데이터를 중앙의 클라우드 컴퓨팅 솔루션과 전통적인 데이터센터에서 처리하는 경우 데이터 물량 때문에 네트워크 속도가 느려지기 때문이다.  부즈 앨런 해밀턴(Booz Allen Hamilton)의 부사장 키 리는 “처리를 위해 모든 데이터를 중앙의 클라우드로 전송해야 하기 때문에 네트워크 대역폭과 지연 속도의 한계가 높아졌다”라고 말했다. AI 지원 엣지 컴퓨팅(AI-enabled edge computing)의 시대가 열리고 있다.   봇(Bot)과의 전쟁 아카마이(Akamai)만큼 이 문제를 체험하는 기업은 드물다. 아카마이는 전 세계에서 가장 큰 콘텐츠 유통 네트워크를 운영하고 있다. 최근 조사에 따르면 135개 이상의 국가에서 약 32만 5,000대의 서버로 매초마다 100Tb 이상의 웹 트래픽을 제공하고 있었다.  엣지 컴퓨팅은 성능과 보안을 개선하는 열쇠라고 아카마이의 글로벌 제품 및 산업 마케팅 부사장 아리 웨일이 말했다. ‘봇’이 대표적이다. “봇들은 인터넷에서 엄청난 문제가 되고 있다”고 웨일이 말했다. 이것들은 자동화된 크리덴셜 스터핑(Credential Stuffing)과 서비스 거부 공격으로 고객들을 공격한다. 또한 쓸모 없는 트래픽으로 파이프를 막아 아카마이에 비용을 발생시킨다. 사이버 범죄자들도 봇을 사...

2021.03.29

파편화된 API·툴킷·플랫폼 한 그릇에··· MS 메시가 '혼합현실 개발자’에 갖는 의미

마이크로소프트가 혼합현실 애플리케이션 개발 및 협업을 위한 새로운 프레임워크 메시(Mesh)를 공개했다. 마이크로소프트가 메시 툴체인으로 엮고자 하는 것이 무엇이며, 이는 애플리케이션 개발에 어떤 의미를 가질까?  마이크로소프트가 2021 이그나이트(Ignite)에서 새로운 혼합현실 플랫폼 ‘메시(Mesh)’를 공개했다. 그 현장에서 다양한 업무를 공유하거나 가상 및 증강경험을 하고 홀로렌즈(HoloLens)를 착용한 채 디지털 아바타의 모습으로 회의를 하는 등 여러 사용 사례가 공개됐지만 기술적 세부사항은 크게 다뤄지지 않았다. 다시 말해, 볼거리는 넘쳐났지만 코드를 직접 개발하거나 서비스를 사용하는 방법에 관한 정보는 많지 않았다.    이그나이트에서 나온 정보가 부족하긴 하지만 그간의 경험을 바탕으로 한다면 메시의 구성요소를 쉽게 추측할 수 있다. 마이크로소프트가 지난 몇 년 동안 메시를 구축하기 위해 필요했던 대부분의 서비스를 공개했기 때문이다. 그리고 메시는 이 모든 요소를 하나의 공통 API 및 개발 도구로 묶는다.  한편 다른 증강현실 플랫폼과는 달리 마이크로소프트는 1세대 홀로렌즈 하드웨어, 애저 키넥트 3D 카메라, 윈도우10에 탑재된 혼합현실 프레임워크 등에서 얻은 교훈을 바탕으로 이를 구축하는 것과 관련해 실질적인 경험을 많이 쌓았다.  홀로렌즈 위에 구축하기 이그나이트에서 메시를 발표한 세션을 살펴보자. 여기서 소개된 시나리오가 익숙한 건 놀랄 만한 일은 아니다. 이는 원격으로 전문지식을 공유하는 것부터 몰입형 회의까지, 그리고 위치 기반 정보부터 공동 디자인 서비스까지 마이크로소프트가 수년 동안 선보인 것과 동일한, 협업을 지원하는 혼합현실 애플리케이션 모음이다.  모두 익숙한 것들이지만 이는 코로나19 사태가 오늘날 업무 환경에 제약(예: 원격근무, 사회적 거리두기 등)을 걸면서 더욱더 중요해졌다.  수년 동안 혼합현실 도구를 개발해 온 마이크로소프트는 혼합현실...

혼합현실 증강현실 가상현실 마이크로소프트 이그나이트 메시 개발자 홀로렌즈 소프트웨어 개발 애저 클라우드 컴퓨팅 분산 컴퓨팅

2021.03.11

마이크로소프트가 혼합현실 애플리케이션 개발 및 협업을 위한 새로운 프레임워크 메시(Mesh)를 공개했다. 마이크로소프트가 메시 툴체인으로 엮고자 하는 것이 무엇이며, 이는 애플리케이션 개발에 어떤 의미를 가질까?  마이크로소프트가 2021 이그나이트(Ignite)에서 새로운 혼합현실 플랫폼 ‘메시(Mesh)’를 공개했다. 그 현장에서 다양한 업무를 공유하거나 가상 및 증강경험을 하고 홀로렌즈(HoloLens)를 착용한 채 디지털 아바타의 모습으로 회의를 하는 등 여러 사용 사례가 공개됐지만 기술적 세부사항은 크게 다뤄지지 않았다. 다시 말해, 볼거리는 넘쳐났지만 코드를 직접 개발하거나 서비스를 사용하는 방법에 관한 정보는 많지 않았다.    이그나이트에서 나온 정보가 부족하긴 하지만 그간의 경험을 바탕으로 한다면 메시의 구성요소를 쉽게 추측할 수 있다. 마이크로소프트가 지난 몇 년 동안 메시를 구축하기 위해 필요했던 대부분의 서비스를 공개했기 때문이다. 그리고 메시는 이 모든 요소를 하나의 공통 API 및 개발 도구로 묶는다.  한편 다른 증강현실 플랫폼과는 달리 마이크로소프트는 1세대 홀로렌즈 하드웨어, 애저 키넥트 3D 카메라, 윈도우10에 탑재된 혼합현실 프레임워크 등에서 얻은 교훈을 바탕으로 이를 구축하는 것과 관련해 실질적인 경험을 많이 쌓았다.  홀로렌즈 위에 구축하기 이그나이트에서 메시를 발표한 세션을 살펴보자. 여기서 소개된 시나리오가 익숙한 건 놀랄 만한 일은 아니다. 이는 원격으로 전문지식을 공유하는 것부터 몰입형 회의까지, 그리고 위치 기반 정보부터 공동 디자인 서비스까지 마이크로소프트가 수년 동안 선보인 것과 동일한, 협업을 지원하는 혼합현실 애플리케이션 모음이다.  모두 익숙한 것들이지만 이는 코로나19 사태가 오늘날 업무 환경에 제약(예: 원격근무, 사회적 거리두기 등)을 걸면서 더욱더 중요해졌다.  수년 동안 혼합현실 도구를 개발해 온 마이크로소프트는 혼합현실...

2021.03.11

김진철의 How-to-Big Data | 빅데이터의 미래 (1)

왜 빅데이터 현상이 일어났는가? – 빅데이터 현상의 배경 지금까지 서른네 편의 글을 통해 세계 정상급 과학 연구소인 CERN의 LHC 프로젝트에서 어떻게 빅데이터 문제를 해결해왔는지 살펴보면서 CERN의 빅데이터 기술과 활용법이 일반 기업들이 빅데이터를 활용할 때 어떤 시사점을 주는지 같이 생각해보았다. 구글이나 페이스북과 같이 빅데이터를 활용하는 기술, 조직과 시스템이 일반 대중에게 모두 공개되지 않는 회사에서 배울 수 있는 것은 제한적이지만, CERN의 성과와 기술은 일반인들에게 모두 공개되는 정보이고, 빅데이터 활용에 대한 세부적인 디테일을 같이 살펴볼 수 있다는 점에서 CERN의 빅데이터 활용 사례를 살펴보는 것은 일반 기업에게도 충분히 의미가 있는 일이었다. 앞으로 여러 편의 글을 통해서 빅데이터 기술과 데이터 과학 트렌드가 앞으로의 사회에 어떤 시사점을 주는지 같이 생각해보는 시간을 가지려고 한다. 과연 빅데이터 트렌드가 단순히 잠깐 반짝하고 사라지는 유행어에 불과한 것인지, 아니면 앞으로의 기업 경영과 IT에 지속적인 영향을 줄 근본적인 변화를 보여주는 현상인지 같이 살펴보고 우리가 어떻게 미래를 대비해야 영속적인 비즈니스를 만들고 지켜나갈 수 있을지 생각해보려고 한다. 먼저 빅데이터가 요즘에만 화두가 된 현상이었는지 같이 생각해보자. 트랜지스터와 집적회로가 발명된 이래로 해마다 컴퓨터 칩의 집적도가 18개월마다 2배씩 증가할 것이라고 예언한 인텔의 창업자 고든 무어의 이름을 딴 무어의 법칙은 최근 반도체 기술의 물리적인 한계로 인해서 조금씩 그 집적도가 둔화되기 시작하면서 다른 양상으로 변화될 조짐이 나타나고 있다. 4~5년 전부터 CPU의 디자인이 많은 수의 CPU 코어가 단일 CPU 안에 집적되는 매니코어(many-core) 아키텍처로 발전하는 경향이 점점 뚜렷해지고 있다. 즉, 많은 양의 계산을 예전처럼 집적도와 동기화 클럭을 높여 단일 CPU 코어의 처리 속도를 높이는 대신, 계산에 활용하는 CPU 코어의 수를 늘려 병렬, 분산 처리...

CIO RPC 뇌과학 엣지컴퓨팅 김진철 분산 컴퓨팅 튜링상 알타비스타 5G 양자컴퓨팅 데이터 과학자 빅데이터 인텔 페이스북 구글 원격 프로시저 호출

2019.11.27

왜 빅데이터 현상이 일어났는가? – 빅데이터 현상의 배경 지금까지 서른네 편의 글을 통해 세계 정상급 과학 연구소인 CERN의 LHC 프로젝트에서 어떻게 빅데이터 문제를 해결해왔는지 살펴보면서 CERN의 빅데이터 기술과 활용법이 일반 기업들이 빅데이터를 활용할 때 어떤 시사점을 주는지 같이 생각해보았다. 구글이나 페이스북과 같이 빅데이터를 활용하는 기술, 조직과 시스템이 일반 대중에게 모두 공개되지 않는 회사에서 배울 수 있는 것은 제한적이지만, CERN의 성과와 기술은 일반인들에게 모두 공개되는 정보이고, 빅데이터 활용에 대한 세부적인 디테일을 같이 살펴볼 수 있다는 점에서 CERN의 빅데이터 활용 사례를 살펴보는 것은 일반 기업에게도 충분히 의미가 있는 일이었다. 앞으로 여러 편의 글을 통해서 빅데이터 기술과 데이터 과학 트렌드가 앞으로의 사회에 어떤 시사점을 주는지 같이 생각해보는 시간을 가지려고 한다. 과연 빅데이터 트렌드가 단순히 잠깐 반짝하고 사라지는 유행어에 불과한 것인지, 아니면 앞으로의 기업 경영과 IT에 지속적인 영향을 줄 근본적인 변화를 보여주는 현상인지 같이 살펴보고 우리가 어떻게 미래를 대비해야 영속적인 비즈니스를 만들고 지켜나갈 수 있을지 생각해보려고 한다. 먼저 빅데이터가 요즘에만 화두가 된 현상이었는지 같이 생각해보자. 트랜지스터와 집적회로가 발명된 이래로 해마다 컴퓨터 칩의 집적도가 18개월마다 2배씩 증가할 것이라고 예언한 인텔의 창업자 고든 무어의 이름을 딴 무어의 법칙은 최근 반도체 기술의 물리적인 한계로 인해서 조금씩 그 집적도가 둔화되기 시작하면서 다른 양상으로 변화될 조짐이 나타나고 있다. 4~5년 전부터 CPU의 디자인이 많은 수의 CPU 코어가 단일 CPU 안에 집적되는 매니코어(many-core) 아키텍처로 발전하는 경향이 점점 뚜렷해지고 있다. 즉, 많은 양의 계산을 예전처럼 집적도와 동기화 클럭을 높여 단일 CPU 코어의 처리 속도를 높이는 대신, 계산에 활용하는 CPU 코어의 수를 늘려 병렬, 분산 처리...

2019.11.27

김진철의 How-to-Big Data | 빅데이터와 클라우드 기술 (3)

LHG 컴퓨팅 그리드를 위한 네트워크 인프라 지난 열 번째 글에서 소개한 바와 같이 LHC 빅데이터를 처리하기 위해 CERN에서 국제 공동 인프라로 구축한 LHC 컴퓨팅 그리드는 전 세계에 걸친 고에너지 물리학 연구소와 국립 컴퓨팅 센터의 자원을 묶어 Tier-0, Tier-1, Tier-2의 세 개의 계층으로 크게 구분되는 계층형 시스템으로 구성되었다. 이런 전지구적 분산 컴퓨팅 인프라인 LHC 컴퓨팅 그리드가 하나의 거대한 수퍼컴퓨터로 통합되어 동작하기 위해서 가장 중요한 것이 바로 네트워크 인프라이다. LHC 컴퓨팅 그리드가 다른 컴퓨팅 인프라와 다른 점은 대륙과 국가를 넘나드는 전 지구적인 컴퓨팅 인프라라는 점이다. 무엇보다도, 컴퓨팅 인프라의 자원통합이 단순히 노드 대 노드, 랙 대 랙 수준이 아니라 데이터센터 대 데이터센터 수준의 인프라 통합이 이루어져야 했기 때문에 일반적인 컴퓨팅 인프라 개발보다 훨씬 더 어려운 문제들이 많았다. 지난 아홉 번째 글에서 잠시 언급한 바와 같이 각 국가, 연구소별 데이터센터의 보안 및 네트워크 관리 정책이 달라서 그리드에서 실행되는 분석 작업의 실패율이 40%가 넘었던 것과 같은 문제가 그런 문제이다. 가상 머신을 이용한 가상화 기술을 이용해서 어느 정도 해결하기는 했지만, 데이터센터 대 데이터센터 수준의 컴퓨팅 인프라 통합은 기술적으로만 해결되지 않아 어려운 문제이다. LHC 컴퓨팅 그리드 기술이 한창 개발되던 1990년대 후반부터 2000년대 중반까지 LHC 컴퓨팅 프로젝트에서 가장 많이 화두가 되었던 문제는 네트워크 인프라에 관한 것이었다. LHC 가속기의 검출기에서 실험 데이터가 생성되면 원시 데이터는 CERN의 Tier-0 데이터 센터에 우선 보관되지만, 이후 실험의 방향을 적절하게 정하고 다음 실험을 신속하게 수행하기 위해서는 획득된 데이터를 신속하게 분석해야 하기 때문에 메타데이터가 붙여진 가공된 데이터가 전 세계의 Tier-1, Tier-2 데이터 센터로 적시에 전송될 ...

빅데이터 수퍼컴퓨터 분산 컴퓨팅 김진철 LHG 컴퓨팅 그리드

2017.12.06

LHG 컴퓨팅 그리드를 위한 네트워크 인프라 지난 열 번째 글에서 소개한 바와 같이 LHC 빅데이터를 처리하기 위해 CERN에서 국제 공동 인프라로 구축한 LHC 컴퓨팅 그리드는 전 세계에 걸친 고에너지 물리학 연구소와 국립 컴퓨팅 센터의 자원을 묶어 Tier-0, Tier-1, Tier-2의 세 개의 계층으로 크게 구분되는 계층형 시스템으로 구성되었다. 이런 전지구적 분산 컴퓨팅 인프라인 LHC 컴퓨팅 그리드가 하나의 거대한 수퍼컴퓨터로 통합되어 동작하기 위해서 가장 중요한 것이 바로 네트워크 인프라이다. LHC 컴퓨팅 그리드가 다른 컴퓨팅 인프라와 다른 점은 대륙과 국가를 넘나드는 전 지구적인 컴퓨팅 인프라라는 점이다. 무엇보다도, 컴퓨팅 인프라의 자원통합이 단순히 노드 대 노드, 랙 대 랙 수준이 아니라 데이터센터 대 데이터센터 수준의 인프라 통합이 이루어져야 했기 때문에 일반적인 컴퓨팅 인프라 개발보다 훨씬 더 어려운 문제들이 많았다. 지난 아홉 번째 글에서 잠시 언급한 바와 같이 각 국가, 연구소별 데이터센터의 보안 및 네트워크 관리 정책이 달라서 그리드에서 실행되는 분석 작업의 실패율이 40%가 넘었던 것과 같은 문제가 그런 문제이다. 가상 머신을 이용한 가상화 기술을 이용해서 어느 정도 해결하기는 했지만, 데이터센터 대 데이터센터 수준의 컴퓨팅 인프라 통합은 기술적으로만 해결되지 않아 어려운 문제이다. LHC 컴퓨팅 그리드 기술이 한창 개발되던 1990년대 후반부터 2000년대 중반까지 LHC 컴퓨팅 프로젝트에서 가장 많이 화두가 되었던 문제는 네트워크 인프라에 관한 것이었다. LHC 가속기의 검출기에서 실험 데이터가 생성되면 원시 데이터는 CERN의 Tier-0 데이터 센터에 우선 보관되지만, 이후 실험의 방향을 적절하게 정하고 다음 실험을 신속하게 수행하기 위해서는 획득된 데이터를 신속하게 분석해야 하기 때문에 메타데이터가 붙여진 가공된 데이터가 전 세계의 Tier-1, Tier-2 데이터 센터로 적시에 전송될 ...

2017.12.06

2018년 전망 '마이크로 모듈형 데이터센터 증가'

기업과 IT서비스 제공업체는 데이터 생성 장소 근처에 컴퓨팅 및 저장 기능을 두고자 한다. 따라서 공장 내, 컨테이너 선상, 휴대전화 기지국 등 망 엣지(edge)에 소형 데이터센터가 생겨나고 있다. 이러한 소위 마이크로 모듈형 데이터센터(MMDC: micro modular data center)는 새로운 것이 아니며 유일한 분산 엣지 컴퓨팅 솔루션도 아니다. 그러나 451 리서치(451 Research)에 따르면 지난 3년간 연평균 성장률이 42%에 달할 정도로 인기가 늘어나고 있다. MMDC의 매출액은 2017년 미화 1,800만 달러에서 2018년 3,000만 달러에 이를 것으로 예상된다. 비록 시장 규모는 작아 보이지만 MMDC는 2018년도에 약 2,000곳에 신규 설치될 예정이며 MMDC 비용의 몇 배 규모 프로젝트의 일부가 될 것이라고 451 리서치는 전했다. 451 리서치 데이터센터 기술 선임 애널리스트 대니얼 비조는 “현재 제품 분류 규모로 볼 때 마이크로 모듈이 크다고 할 수는 없지만, 상승 잠재력이 엄청나다고 본다. 완전히 새로운 것을 만들어내기 때문이 아니라 문제 해결에 도움을 주고 고도의 분산 기능 수요를 충족해 줄 것이기 때문이다”고 설명했다. 기업의 디지털 계획이 진행됨에 따라 로컬화된 컴퓨팅 기능에 대한 기대도 커지고 있다. 기업들은 제한된 대역폭과 씨름하는 한편, 지연에 민감한 응용프로그램의 반응 시간을 수십 밀리 초라도 줄이려고 애쓰고 있다. 산업 환경에서 회사들이 데이터 중심의 스마트 시스템을 최대한 활용하려면 로컬 데이터 저장 및 처리 기능이 필요하다. 통신 회사들과 콘텐츠 유통 업체들은 디지털 서비스 수요에 대응하기 위해 보다 효율적인 엣지 컴퓨팅 솔루션 배치 및 관리를 추진하고 있다. 비조는 “물리적인 세계를 디지털화하려면 어마어마한 기능이 소모된다. 마이크로 모듈이 첫 기항지여야 한다”고 말했다. 마이크로 모듈형 데이터센터란? 마이크로 모듈형...

전망 micro modular data center MMDC 엣지 컴퓨팅 분산 컴퓨팅 HPE 451리서치 2018년 사물인터넷 슈나이더 일렉트릭 기계학습 5G 인공지능 마이크로 모듈형 데이터센터

2017.12.01

기업과 IT서비스 제공업체는 데이터 생성 장소 근처에 컴퓨팅 및 저장 기능을 두고자 한다. 따라서 공장 내, 컨테이너 선상, 휴대전화 기지국 등 망 엣지(edge)에 소형 데이터센터가 생겨나고 있다. 이러한 소위 마이크로 모듈형 데이터센터(MMDC: micro modular data center)는 새로운 것이 아니며 유일한 분산 엣지 컴퓨팅 솔루션도 아니다. 그러나 451 리서치(451 Research)에 따르면 지난 3년간 연평균 성장률이 42%에 달할 정도로 인기가 늘어나고 있다. MMDC의 매출액은 2017년 미화 1,800만 달러에서 2018년 3,000만 달러에 이를 것으로 예상된다. 비록 시장 규모는 작아 보이지만 MMDC는 2018년도에 약 2,000곳에 신규 설치될 예정이며 MMDC 비용의 몇 배 규모 프로젝트의 일부가 될 것이라고 451 리서치는 전했다. 451 리서치 데이터센터 기술 선임 애널리스트 대니얼 비조는 “현재 제품 분류 규모로 볼 때 마이크로 모듈이 크다고 할 수는 없지만, 상승 잠재력이 엄청나다고 본다. 완전히 새로운 것을 만들어내기 때문이 아니라 문제 해결에 도움을 주고 고도의 분산 기능 수요를 충족해 줄 것이기 때문이다”고 설명했다. 기업의 디지털 계획이 진행됨에 따라 로컬화된 컴퓨팅 기능에 대한 기대도 커지고 있다. 기업들은 제한된 대역폭과 씨름하는 한편, 지연에 민감한 응용프로그램의 반응 시간을 수십 밀리 초라도 줄이려고 애쓰고 있다. 산업 환경에서 회사들이 데이터 중심의 스마트 시스템을 최대한 활용하려면 로컬 데이터 저장 및 처리 기능이 필요하다. 통신 회사들과 콘텐츠 유통 업체들은 디지털 서비스 수요에 대응하기 위해 보다 효율적인 엣지 컴퓨팅 솔루션 배치 및 관리를 추진하고 있다. 비조는 “물리적인 세계를 디지털화하려면 어마어마한 기능이 소모된다. 마이크로 모듈이 첫 기항지여야 한다”고 말했다. 마이크로 모듈형 데이터센터란? 마이크로 모듈형...

2017.12.01

'구인공고에서 채용까지 최소 2개월 이상' IT직종 10선

버닝 글래스(Burning Glass)가 지난해 4만 건 이상의 구인 정보를 조사해, 적임자를 채용하는데 어려움을 겪는 IT직종을 찾아냈다. 적임자를 채용하기까지 걸리는 시간을 기준으로 본 10가지 IT직종을 정리했다. 무어의 법칙이 끝났다는 말은 다소 과장됐다. 컴퓨팅 파워, 데이터 분석, 클라우드, 다른 기술 등의 발전은 느리지만 꾸준히 일어나고 있다. 하지만 기업이 점점 더 데이터 주도형으로 바뀌면서 하드웨어나 인프라가 더는 문제가 되지 않게 됐다. 문제는 데이터를 정리하고 분석하며 보호하는 기술력을 갖춘 IT전문가를 찾기가 점점 더 어려워졌다는 사실이다. 노동시장 조사 및 분석 기업인 버닝 그래스의 CEO 매트 시겔맨은 "우리는 모두 무어의 법칙에 익숙하다. 우리가 보고 있는 것은 시간이 갈수록 컴퓨팅 파워가 증가하고 엄청난 양의 데이터가 유입된다는 것이다. 기업이 더 나은 의사결정을 내리기 위해서는 데이터를 저장하고 안전하게 관리하며 이해하고 사용하도록 인프라를 활용해야 한다. 그런데 지금 당장 이렇게 할 수 있는 인재들을 찾는 것은 매우 어렵다”고 말했다. 버닝 글래스는 2015년 8월부터 2016년 9월까지 4만 건 이상의 채용 공고를 조사하고 분석해 적임자를 뽑기까지 시간이 오래 걸리는 10대 IT직종을 정리했다. 1. 클라우드 보안 채용까지 걸리는 시간 : 96일 과거에 클라우드 기술을 거부했던 기업들도 현재는 클라우드가 제공할 수 있는 효율성과 비용 절감을 이사회에서 논의하기 시작했다. 시겔맨은 "기업이 데이터 주도형으로 바뀌면서 클라우드로 가면서 데이터를 안전하게 관리할 방법을 고민하기 시작했으며 클라우드 보안 기술력이 정말 중요해졌다”고 밝혔다. 2. 제이보스 앱 서버 채용까지 걸리는 시간 : 77일 기업은 자바 기반 트랜잭션 애플리케이션을 구동하는데 제이보스 애플리케이션 서버를 사용한다. 이는 전문성을 요구하는 오픈소스 기술이다. 3. 메타데이터 디자인...

CIO 분산 컴퓨팅 채용 공고 버닝 글래스 노동시장 클라우드 보안 제이보스 메타데이터 무어의 법칙 구인 고용 채용 세일즈포닷컴

2016.11.10

버닝 글래스(Burning Glass)가 지난해 4만 건 이상의 구인 정보를 조사해, 적임자를 채용하는데 어려움을 겪는 IT직종을 찾아냈다. 적임자를 채용하기까지 걸리는 시간을 기준으로 본 10가지 IT직종을 정리했다. 무어의 법칙이 끝났다는 말은 다소 과장됐다. 컴퓨팅 파워, 데이터 분석, 클라우드, 다른 기술 등의 발전은 느리지만 꾸준히 일어나고 있다. 하지만 기업이 점점 더 데이터 주도형으로 바뀌면서 하드웨어나 인프라가 더는 문제가 되지 않게 됐다. 문제는 데이터를 정리하고 분석하며 보호하는 기술력을 갖춘 IT전문가를 찾기가 점점 더 어려워졌다는 사실이다. 노동시장 조사 및 분석 기업인 버닝 그래스의 CEO 매트 시겔맨은 "우리는 모두 무어의 법칙에 익숙하다. 우리가 보고 있는 것은 시간이 갈수록 컴퓨팅 파워가 증가하고 엄청난 양의 데이터가 유입된다는 것이다. 기업이 더 나은 의사결정을 내리기 위해서는 데이터를 저장하고 안전하게 관리하며 이해하고 사용하도록 인프라를 활용해야 한다. 그런데 지금 당장 이렇게 할 수 있는 인재들을 찾는 것은 매우 어렵다”고 말했다. 버닝 글래스는 2015년 8월부터 2016년 9월까지 4만 건 이상의 채용 공고를 조사하고 분석해 적임자를 뽑기까지 시간이 오래 걸리는 10대 IT직종을 정리했다. 1. 클라우드 보안 채용까지 걸리는 시간 : 96일 과거에 클라우드 기술을 거부했던 기업들도 현재는 클라우드가 제공할 수 있는 효율성과 비용 절감을 이사회에서 논의하기 시작했다. 시겔맨은 "기업이 데이터 주도형으로 바뀌면서 클라우드로 가면서 데이터를 안전하게 관리할 방법을 고민하기 시작했으며 클라우드 보안 기술력이 정말 중요해졌다”고 밝혔다. 2. 제이보스 앱 서버 채용까지 걸리는 시간 : 77일 기업은 자바 기반 트랜잭션 애플리케이션을 구동하는데 제이보스 애플리케이션 서버를 사용한다. 이는 전문성을 요구하는 오픈소스 기술이다. 3. 메타데이터 디자인...

2016.11.10

IDG 설문조사

회사명:한국IDG 제호: ITWorld 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아00743 등록일자 : 2009년 01월 19일

발행인 : 박형미 편집인 : 박재곤 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2022 International Data Group. All rights reserved.

10.5.0.8