2014.11.17

IBM이 꿈꾸는 수퍼컴퓨팅의 미래

Agam Shah | IDG News Service
IBM이 미래의 수퍼컴퓨터에 더 많은 코프로세서(Co-processor)와 가속기를 적용해 컴퓨팅 속도와 전력 효율을 높일 계획이다.

이 새로운 아키텍처를 가진 수퍼컴퓨터는 내년에 출시될 수도 있다. IBM의 오픈파워(OpenPower) 기술 컴퓨팅 부사장 데이브 튜렉은 새로운 수퍼컴퓨터의 목적을 “스토리지, 메모리, I/O 레벨의 데이터 처리 속도를 높이는 것”이라고 밝혔다.

이를 통해 병렬 연산 작업을 여러 개로 나누어 문제를 해결하는데 필요한 계산 시간을 단축시킬 수 있을 것이다. 이것이 전통적인 컴퓨팅 모델에 영향을 끼치는 병렬 컴퓨팅의 확장과 경제적 한계를 극복하는데 도움이 될 것이라고 튜렉은 말했다.

"우리는 이것을 보면서 지금까지 해 왔던 일들을 지속할 수는 없지만 사람들이 보유하고 있는 데이터의 양적 측면에서 더 이상 효과도 없을 것이다"고 튜렉은 말했다.

메모리, 스토리지, I/O가 연계하여 시스템 성능을 높이지만 현재의 수퍼컴퓨터 모델에는 병목현상이 존재한다. 많은 시간과 에너지가 프로세서, 메모리, 스토리지 사이에서 지속적으로 이동하는 거대한 데이터로 인해 낭비되고 있다. IBM은 이동해야 하는 데이터의 양을 줄이고 싶어하며, 이를 통해 기존의 수퍼컴퓨터 모델보다 최대 3배까지 빠르게 데이터를 처리할 수 있다.

"페타바이트와 엑사바이트 수준의 데이터를 취급할 때, 이런 양의 데이터를 이동하는 것은 매우 비효율적이고 시간이 많이 걸리기 때문에 처리를 데이터로 옮겨야 한다. 우리는 시스템 계층 전반에 걸쳐 연산 능력을 제공하여 이를 달성한다"고 튜렉은 말했다.


최근 수퍼컴퓨터 상위 500대 목록에 따르면, IBM은 수십 년 동안 세계에서 가장 빠른 컴퓨터와 3번째 및 5번째로 빠른 컴퓨터를 제작했다. 하지만 서버로 공급되는 데이터의 양은 수퍼컴퓨터의 속도가 빨라지는 속도보다 훨씬 빠르다. 그에 비해 네트워크, 칩의 클럭 속도, 데이터 접속 시간도 빨라지지 않고 있다고 튜렉은 전했다.

"애플리케이션은 더 이상 전통적인 컴퓨터 마이크로프로세서에 머물러 있는 게 아니라 애플리케이션과 작업흐름 연산 자체가 시스템 계층 전반에 걸쳐 분산돼 있다"고 튜렉은 말했다.

IBM의 실행 모델은 독점적이지만, 튜렉은 스토리지 안에서 정보를 분해하여 메모리로 이동할 수 있도록 함으로써 데이터 세트의 크기를 줄일 수 있는 간단한 예시를 제공했다. 이 모델은 일반적으로 수 개월이 소요되는 석유 및 가스 작업흐름에도 적용할 수 있으며, 천공에 관한 결정을 내리는데 필요한 시간을 크게 단축시킬 것이다.

"비휘발성 RAM을 포함하여 스토리지와 메모리의 계층을 보고 있으며, 이를 통해 처리 지연율이 크게 낮아지고 대역폭이 높아졌으며 데이터를 중앙의 스토리지로 돌려 보낼 필요도 없을 것이다"고 튜렉은 말했다.

IBM은 데이터가 프로세스로 전송되고 계산된 후 메모리로 반환되는 폰 노이만(Von Neumann) 접근방식 등의 전통적인 컴퓨팅 아키텍처에 도전하려는 것이 아니다. 오늘날 대부분의 컴퓨터 시스템은 수학자 존 폰 노이만이 1940년대에 고안한 폰 노이만 아키텍처에 기초하고 있다.

"개별적인 컴퓨팅 요소 수준에서 우리는 폰 노이만 접근방식을 활용한다. 하지만 시스템의 수준에서 우리는 데이터로 컴퓨팅을 이동시키는 추가적인 컴퓨팅 방법을 제공하고 있다. 시스템에서 처리 지연율을 낮추고 이동해야 하는 데이터의 양을 줄이는 다양한 방법이 존재한다. 이를 통해 시간과 에너지를 절약한다"고 튜렉은 밝혔다.




2014.11.17

IBM이 꿈꾸는 수퍼컴퓨팅의 미래

Agam Shah | IDG News Service
IBM이 미래의 수퍼컴퓨터에 더 많은 코프로세서(Co-processor)와 가속기를 적용해 컴퓨팅 속도와 전력 효율을 높일 계획이다.

이 새로운 아키텍처를 가진 수퍼컴퓨터는 내년에 출시될 수도 있다. IBM의 오픈파워(OpenPower) 기술 컴퓨팅 부사장 데이브 튜렉은 새로운 수퍼컴퓨터의 목적을 “스토리지, 메모리, I/O 레벨의 데이터 처리 속도를 높이는 것”이라고 밝혔다.

이를 통해 병렬 연산 작업을 여러 개로 나누어 문제를 해결하는데 필요한 계산 시간을 단축시킬 수 있을 것이다. 이것이 전통적인 컴퓨팅 모델에 영향을 끼치는 병렬 컴퓨팅의 확장과 경제적 한계를 극복하는데 도움이 될 것이라고 튜렉은 말했다.

"우리는 이것을 보면서 지금까지 해 왔던 일들을 지속할 수는 없지만 사람들이 보유하고 있는 데이터의 양적 측면에서 더 이상 효과도 없을 것이다"고 튜렉은 말했다.

메모리, 스토리지, I/O가 연계하여 시스템 성능을 높이지만 현재의 수퍼컴퓨터 모델에는 병목현상이 존재한다. 많은 시간과 에너지가 프로세서, 메모리, 스토리지 사이에서 지속적으로 이동하는 거대한 데이터로 인해 낭비되고 있다. IBM은 이동해야 하는 데이터의 양을 줄이고 싶어하며, 이를 통해 기존의 수퍼컴퓨터 모델보다 최대 3배까지 빠르게 데이터를 처리할 수 있다.

"페타바이트와 엑사바이트 수준의 데이터를 취급할 때, 이런 양의 데이터를 이동하는 것은 매우 비효율적이고 시간이 많이 걸리기 때문에 처리를 데이터로 옮겨야 한다. 우리는 시스템 계층 전반에 걸쳐 연산 능력을 제공하여 이를 달성한다"고 튜렉은 말했다.


최근 수퍼컴퓨터 상위 500대 목록에 따르면, IBM은 수십 년 동안 세계에서 가장 빠른 컴퓨터와 3번째 및 5번째로 빠른 컴퓨터를 제작했다. 하지만 서버로 공급되는 데이터의 양은 수퍼컴퓨터의 속도가 빨라지는 속도보다 훨씬 빠르다. 그에 비해 네트워크, 칩의 클럭 속도, 데이터 접속 시간도 빨라지지 않고 있다고 튜렉은 전했다.

"애플리케이션은 더 이상 전통적인 컴퓨터 마이크로프로세서에 머물러 있는 게 아니라 애플리케이션과 작업흐름 연산 자체가 시스템 계층 전반에 걸쳐 분산돼 있다"고 튜렉은 말했다.

IBM의 실행 모델은 독점적이지만, 튜렉은 스토리지 안에서 정보를 분해하여 메모리로 이동할 수 있도록 함으로써 데이터 세트의 크기를 줄일 수 있는 간단한 예시를 제공했다. 이 모델은 일반적으로 수 개월이 소요되는 석유 및 가스 작업흐름에도 적용할 수 있으며, 천공에 관한 결정을 내리는데 필요한 시간을 크게 단축시킬 것이다.

"비휘발성 RAM을 포함하여 스토리지와 메모리의 계층을 보고 있으며, 이를 통해 처리 지연율이 크게 낮아지고 대역폭이 높아졌으며 데이터를 중앙의 스토리지로 돌려 보낼 필요도 없을 것이다"고 튜렉은 말했다.

IBM은 데이터가 프로세스로 전송되고 계산된 후 메모리로 반환되는 폰 노이만(Von Neumann) 접근방식 등의 전통적인 컴퓨팅 아키텍처에 도전하려는 것이 아니다. 오늘날 대부분의 컴퓨터 시스템은 수학자 존 폰 노이만이 1940년대에 고안한 폰 노이만 아키텍처에 기초하고 있다.

"개별적인 컴퓨팅 요소 수준에서 우리는 폰 노이만 접근방식을 활용한다. 하지만 시스템의 수준에서 우리는 데이터로 컴퓨팅을 이동시키는 추가적인 컴퓨팅 방법을 제공하고 있다. 시스템에서 처리 지연율을 낮추고 이동해야 하는 데이터의 양을 줄이는 다양한 방법이 존재한다. 이를 통해 시간과 에너지를 절약한다"고 튜렉은 밝혔다.


X