2012.12.31

‘인피니밴드 vs. 기가비트 이더넷’ 끝나지 않은 프로토콜 기술 경쟁

Joab Jackson | IDG News Service
몇년 전 컴퓨터를 네크워크에 연결하려면 프로토콜을 선택하는 것은 당연한 일이었다. 중급 규모의 데이터 센터 서버들은 이더넷(Ethernet)으로 서로 연결돼 있었고 많은 노드들을 단일 고성능 컴퓨터(HPC)에 연결하려면 인피니밴드(InfiniBand)를 사용했다.
 
반면 최근에는 이런 영역 구분이 희미해졌다. 두 프로토콜이 서로의 영역으로 진출해가고 있고 더 큰 규모의 데이터 센터 네트워킹 시장을 놓고 경쟁하고 있다. 이더넷의 최신판인 기가비트 이더넷(Gigabit Ethernet)은 더 큰 규모의 HPC 시스템을 완벽히 지원할 수 있게 됐고 인피니밴드는 성능에 민감한 기업 데이터센터에 사용되는 경우가 점점 많아지고 있다.
 
일 년에 두 번씩 선정하는 세계 최고 슈퍼컴퓨터 목록인 톱500(Top500)에서도 이런 경향을 확인할 수 있다. 11월에 공개된 최신 자료에서 인피니밴드는 톱500 시스템 중 226개, 기가비트 이더넷은 188개 시스템에서 각각 사용됐다.
 
성능 통계에 대한 기본 상식은 양자의 대결을 관전하는데 재미를 더해준다. 오늘날 네트워크 집적 포인트(network aggregation points)에는 100개의 기가비트 이더넷 카드가 각각 100Gbps 속도로 데이터를 전송할 수 있는 100 기가비트 이더넷이 있다. 조금 저렴한 1, 10, 40 기가비트 이더넷 네트워크 카드 역시 서버와 스위치용 제품이 나와 있다. 더 많은 대역폭에 대한 멈출 줄 모르는 요구에 부응하기 위해 이더넷 얼라이언스(Ethernet Alliance)는 400 기가비트 이더넷 개발에 착수했다.
 
인피니밴드의 현재 버전인 FDR(Fourteen Data Rate)은 56Gbps를 제공한다(채널마다 14Gbps라서 이름도 그렇게 붙여졌다). 차세대 EDR(Enhanced Data Rate)은 내년에 출시되는데 100Gbps를 제공할 예정이다.
 
그러나 숫자는 전체 스토리의 일부일 뿐이다. 인피니밴드는 좀 더 안정적인 토폴로지(topology)와 더 적은 프로세서 중단 시간, 더 낮은 지연시간이라는 장점이 있다. 이더넷은 시장에 출시된 거의 모든 네트워킹 장비를 지원하는 것이 강점이다.
 
이더넷 얼라이언스의 의장 존 디암브로시아는 "이더넷의 힘은 노트북에서 최대 규모 데이터센터 스위치에 이르기까지 어디에나 존재한다는 데서 나온다"고 말했다. 이어 “이더넷 솔루션을 제공하는 수없이 다양한 회사들이 있다"며 "따라서 공동 IP로 다수의 애플리케이션에서 사용할 수 있다"고 덧붙였다.
 
이러한 보편성은 격렬한 시장경쟁 상황에 놓인 업체들의 대규모 제품군을 도입하지 않고도 장비의 상호 운영성과 비용절감을 가능케 한다. 디암브로시아는 “어떤 제품을 구입해 플러그에 꽂으면 어떻게 될까 걱정하지 않고 제대로 작동하는 것, 그것이 바로 이더넷에 기대하는 것"이라며 “여러 업체 제품을 섞어서 짜맞출 수 있기 때문에 경쟁과 비용절감이 동시에 가능하다"고 말했다.
 
인피니밴드는 다수의 서버 메모리와 프로세서를 서로 연결해 마치 단일 회로기판에서 이루어지듯 묶어주는 방식으로 2000년에 첫선을 보였다. 이를 위해 인피니밴드는 OSI(Open Systems interconnection) 네트워킹 스택의 네 레이어, 즉 물리적 레이어, 데이터 링크 레이어, 네트워크 레이어, 전송 레이어를 단일 아키텍처로 통합했다. 어떤 면에서, 특히 이더넷과 비교하면 오픈 시스템이라는 대원칙을 훼손한 신성모독이라고도  할 수 있다.
 
인피니밴드 트레이드 어소시에이션 마케팅 워킹 그룹(Infiniband Trade Association Marketing Working Group)의 공동위원 빌 리는 “인피니밴드의 목표는 애플리케이션 사이의 통신을 향상시키는 것"이었다며 이더넷의 '축적전송'(store-and-forward) 방식을 폄하했다.
 
기가비트 이더넷의 계층적 망 구성(hierarchical topology)과 달리 인피니밴드는 각 노드가 다른 모든 것들과 직접적으로 연결되는, 이른바 편평한 구조(flat fabric)를 갖고 있다. 인피니밴드 만의 특징인 RDMA(Remote Direct Memory Access)는 네트워크 카드가 서버에서 직접 데이터를 읽고 쓸 수 있도록 해 서버 프로세서가 이 작업을 하지 않아도 되도록 지원한다.
 
인피니밴드는 HPC 시스템들 사이에서 빠르게 선호도를 높여가고 있는데 앞서 언급한 것처럼 기업부문으로 점차 확대되고 있다. 예를 들어 오라클은 인피니밴드를 사용해 자사 엑사데이터(Exadata)와 엑사로직(Exalogic) 데이터 분석 애플리케이션의 성능을 높이고 있다. 마이크로소프트는 새로 출시된 윈도우 서버 2012에 RDMA를 직접 지원하는 기능을 추가했다.
 
인피니밴드를 도입한 조직 중에는 미국 국가보훈부도 있다. 이 기관의 인포메틱스 작업은 200대 가량의 서버에서 실행되는데 인피니밴드를 통해 통신이 이뤄진다. 국가보훈부의 솔루션 아키텍트 오기 투라노는 “우리는 막대한 데이터를 전송하는 시스템을 운영하고 있다"며 “인피니밴드 속도로 데이터를 서버 간에 이동시킬 수 있어 상당한 도움이 되고 있다"고 말했다.
 
그러나 이더넷 얼라이언스의 디암브로시아는 인피니밴드의 성능 장점에 큰 반응을 보이지 않았다. 이더넷이 곧 따라 잡는다는 것이다. 그는 “우리는 다른 기술과의 경쟁을 환영한다"며 "우리가 언제나 계속 향상될 수 있음을 일깨워주기 때문이다”고 말했다.
 
이더넷이 본래 소수의 컴퓨터를 연결하는데 사용된 반면 이후에는 전체 데이터센터의 백플레인 서비스같은 대규모 작업을 위해 변화해 왔다. 같은 방식으로 아이워프(iWarp)와 로이스(RoCE)(컨버지드 이더넷상 RDMA) 같은 기술들이 개발돼 기가비트 이더넷은 지연시간과 프로세서 사용량을 줄여 인피니밴드와 직접 경쟁할 수 있게 됐다.
 
디암브로시아는 “이더넷은 끊임없이 진화한다”며 "인피니밴드는 강력한 경쟁자가 데이터센터 안에 도사리고 있다는 것을 명심해야 한다"고 말했다. editor@idg.co.kr



2012.12.31

‘인피니밴드 vs. 기가비트 이더넷’ 끝나지 않은 프로토콜 기술 경쟁

Joab Jackson | IDG News Service
몇년 전 컴퓨터를 네크워크에 연결하려면 프로토콜을 선택하는 것은 당연한 일이었다. 중급 규모의 데이터 센터 서버들은 이더넷(Ethernet)으로 서로 연결돼 있었고 많은 노드들을 단일 고성능 컴퓨터(HPC)에 연결하려면 인피니밴드(InfiniBand)를 사용했다.
 
반면 최근에는 이런 영역 구분이 희미해졌다. 두 프로토콜이 서로의 영역으로 진출해가고 있고 더 큰 규모의 데이터 센터 네트워킹 시장을 놓고 경쟁하고 있다. 이더넷의 최신판인 기가비트 이더넷(Gigabit Ethernet)은 더 큰 규모의 HPC 시스템을 완벽히 지원할 수 있게 됐고 인피니밴드는 성능에 민감한 기업 데이터센터에 사용되는 경우가 점점 많아지고 있다.
 
일 년에 두 번씩 선정하는 세계 최고 슈퍼컴퓨터 목록인 톱500(Top500)에서도 이런 경향을 확인할 수 있다. 11월에 공개된 최신 자료에서 인피니밴드는 톱500 시스템 중 226개, 기가비트 이더넷은 188개 시스템에서 각각 사용됐다.
 
성능 통계에 대한 기본 상식은 양자의 대결을 관전하는데 재미를 더해준다. 오늘날 네트워크 집적 포인트(network aggregation points)에는 100개의 기가비트 이더넷 카드가 각각 100Gbps 속도로 데이터를 전송할 수 있는 100 기가비트 이더넷이 있다. 조금 저렴한 1, 10, 40 기가비트 이더넷 네트워크 카드 역시 서버와 스위치용 제품이 나와 있다. 더 많은 대역폭에 대한 멈출 줄 모르는 요구에 부응하기 위해 이더넷 얼라이언스(Ethernet Alliance)는 400 기가비트 이더넷 개발에 착수했다.
 
인피니밴드의 현재 버전인 FDR(Fourteen Data Rate)은 56Gbps를 제공한다(채널마다 14Gbps라서 이름도 그렇게 붙여졌다). 차세대 EDR(Enhanced Data Rate)은 내년에 출시되는데 100Gbps를 제공할 예정이다.
 
그러나 숫자는 전체 스토리의 일부일 뿐이다. 인피니밴드는 좀 더 안정적인 토폴로지(topology)와 더 적은 프로세서 중단 시간, 더 낮은 지연시간이라는 장점이 있다. 이더넷은 시장에 출시된 거의 모든 네트워킹 장비를 지원하는 것이 강점이다.
 
이더넷 얼라이언스의 의장 존 디암브로시아는 "이더넷의 힘은 노트북에서 최대 규모 데이터센터 스위치에 이르기까지 어디에나 존재한다는 데서 나온다"고 말했다. 이어 “이더넷 솔루션을 제공하는 수없이 다양한 회사들이 있다"며 "따라서 공동 IP로 다수의 애플리케이션에서 사용할 수 있다"고 덧붙였다.
 
이러한 보편성은 격렬한 시장경쟁 상황에 놓인 업체들의 대규모 제품군을 도입하지 않고도 장비의 상호 운영성과 비용절감을 가능케 한다. 디암브로시아는 “어떤 제품을 구입해 플러그에 꽂으면 어떻게 될까 걱정하지 않고 제대로 작동하는 것, 그것이 바로 이더넷에 기대하는 것"이라며 “여러 업체 제품을 섞어서 짜맞출 수 있기 때문에 경쟁과 비용절감이 동시에 가능하다"고 말했다.
 
인피니밴드는 다수의 서버 메모리와 프로세서를 서로 연결해 마치 단일 회로기판에서 이루어지듯 묶어주는 방식으로 2000년에 첫선을 보였다. 이를 위해 인피니밴드는 OSI(Open Systems interconnection) 네트워킹 스택의 네 레이어, 즉 물리적 레이어, 데이터 링크 레이어, 네트워크 레이어, 전송 레이어를 단일 아키텍처로 통합했다. 어떤 면에서, 특히 이더넷과 비교하면 오픈 시스템이라는 대원칙을 훼손한 신성모독이라고도  할 수 있다.
 
인피니밴드 트레이드 어소시에이션 마케팅 워킹 그룹(Infiniband Trade Association Marketing Working Group)의 공동위원 빌 리는 “인피니밴드의 목표는 애플리케이션 사이의 통신을 향상시키는 것"이었다며 이더넷의 '축적전송'(store-and-forward) 방식을 폄하했다.
 
기가비트 이더넷의 계층적 망 구성(hierarchical topology)과 달리 인피니밴드는 각 노드가 다른 모든 것들과 직접적으로 연결되는, 이른바 편평한 구조(flat fabric)를 갖고 있다. 인피니밴드 만의 특징인 RDMA(Remote Direct Memory Access)는 네트워크 카드가 서버에서 직접 데이터를 읽고 쓸 수 있도록 해 서버 프로세서가 이 작업을 하지 않아도 되도록 지원한다.
 
인피니밴드는 HPC 시스템들 사이에서 빠르게 선호도를 높여가고 있는데 앞서 언급한 것처럼 기업부문으로 점차 확대되고 있다. 예를 들어 오라클은 인피니밴드를 사용해 자사 엑사데이터(Exadata)와 엑사로직(Exalogic) 데이터 분석 애플리케이션의 성능을 높이고 있다. 마이크로소프트는 새로 출시된 윈도우 서버 2012에 RDMA를 직접 지원하는 기능을 추가했다.
 
인피니밴드를 도입한 조직 중에는 미국 국가보훈부도 있다. 이 기관의 인포메틱스 작업은 200대 가량의 서버에서 실행되는데 인피니밴드를 통해 통신이 이뤄진다. 국가보훈부의 솔루션 아키텍트 오기 투라노는 “우리는 막대한 데이터를 전송하는 시스템을 운영하고 있다"며 “인피니밴드 속도로 데이터를 서버 간에 이동시킬 수 있어 상당한 도움이 되고 있다"고 말했다.
 
그러나 이더넷 얼라이언스의 디암브로시아는 인피니밴드의 성능 장점에 큰 반응을 보이지 않았다. 이더넷이 곧 따라 잡는다는 것이다. 그는 “우리는 다른 기술과의 경쟁을 환영한다"며 "우리가 언제나 계속 향상될 수 있음을 일깨워주기 때문이다”고 말했다.
 
이더넷이 본래 소수의 컴퓨터를 연결하는데 사용된 반면 이후에는 전체 데이터센터의 백플레인 서비스같은 대규모 작업을 위해 변화해 왔다. 같은 방식으로 아이워프(iWarp)와 로이스(RoCE)(컨버지드 이더넷상 RDMA) 같은 기술들이 개발돼 기가비트 이더넷은 지연시간과 프로세서 사용량을 줄여 인피니밴드와 직접 경쟁할 수 있게 됐다.
 
디암브로시아는 “이더넷은 끊임없이 진화한다”며 "인피니밴드는 강력한 경쟁자가 데이터센터 안에 도사리고 있다는 것을 명심해야 한다"고 말했다. editor@idg.co.kr

X