2021.02.22

삼성, AI 프로세서 통합한 고대역폭 메모리 발표 "성능 두 배 ↑"

Brian Cheon | CIO KR
몇 달 전 삼성과 자일링스는 온보드 자일링스 FPGA 프로세서를 탑재한 SSD를 소개했다. 연산형 스토리지(computational storage)를 현실화시킨 제품이었다. 즉 이 SSD는 데이터가 메모리로 이동할 필요 없이 저장된 장소에서 곧바로 처리될 수 있음을 의미하는 제품이었다. 

양사는 이제 HBM-PIM이라고 하는 인공지능 프로세서가 통합된 고대역폭 메모리(HBM)을 소개했다. 이 새로운 PIM (Processing-in-memory) 아키텍처는 AI 처리 역량을 메모리 내에서 구현할 수 있다. 프로세서 외부로 콘텐츠를 이동시킬 필요가 없어지는 셈이다. 양사는 데이터센터 내 대규모 처리, 고성능 컴퓨팅(HPC) 시스템, AI 모바일 애플리케이션 분야에 획기적인 개선이 가능하다고 강조했다.
 
Fancycrave (CC0) 


HBM은 디램과는 다른 종류의 메모리다. 2D 디자인으로 분산되지 않고 수직으로 쌓여 있기 때문에 데이터 이동 거리가 짧아질 수 있다. 단 동급 용량의 디램보다 약 30% 더 비싸다. HBM은 오늘날 프로세서, CPU, GPU 등에 주로 사용되며, 일반적으로 이동 거리를 최소화하기 위해 프로세서 칩 바로 옆에 배치되곤 한다. 가격 민감성이 덜한 HPC 및 AI 애플리케이션에 널리 쓰인다. 

삼성은 현대 컴퓨팅 시스템이 데이터 처리 작업을 수행할 때 별도의 프로세서와 메모리를 이용하는 폰 노이만 아키텍처를 이용하곤 한다고 설명했다. 데이터가 메모리와 CPU 사이를 오가며 이동한다는 의미다. 이러한 순차처리 접근 방식은 특히 지속적으로 증가하는 데이터 볼륨을 처리할 때 병목 현상을 초래할 수 있다. CPU 제조사들이 수년 동안 L1~L3 캐시를 늘려온 이유이기도 하다. 

삼성은 HBM-PIM의 경우 데이터가 저장된 위치에서 직접 처리될 수 있으며, 아쿠아볼트(Aquabolt)라는 이름의 HBM2 메모리가 적용된 새로운 아키첵처는 에너지 소비를 70% 이상 줄이면서 시스템 성능을 두 배 이상 향상시킬 수 있다고 강조했다. 또 HBM-PIM은 하드웨어나 소프트웨어 변경을 요구하지 않기 때문에 기존 시스템에 빠르게 통합할 수 있다고 회사는 덧붙였다. 

삼성전자 박광일 메모리 제품 기획 부사장은 성명서에서 “우리의 획기적인 HBM-PIM은 HPC, 교육 및 추론과 같은 다양한 AI 기반 워크로드에 맞게 조정된 업계 최초의 프로그래밍 가능한 PIM 솔루션이다. 더욱 발전된 PIM 기반 애플리케이션을 위해 AI 솔루션 제공 업체와 협력을 강화할 예정”이라고 밝혔다. 

한편 이번 삼성의 HBM-PIM은 현재 AI 솔루션 파트너 기업들이 테스트하고 있는 단계다. 삼성은 검증 작업이 올해 상반기 내에 완료될 것으로 예상했다. ciokr@idg.co.kr



2021.02.22

삼성, AI 프로세서 통합한 고대역폭 메모리 발표 "성능 두 배 ↑"

Brian Cheon | CIO KR
몇 달 전 삼성과 자일링스는 온보드 자일링스 FPGA 프로세서를 탑재한 SSD를 소개했다. 연산형 스토리지(computational storage)를 현실화시킨 제품이었다. 즉 이 SSD는 데이터가 메모리로 이동할 필요 없이 저장된 장소에서 곧바로 처리될 수 있음을 의미하는 제품이었다. 

양사는 이제 HBM-PIM이라고 하는 인공지능 프로세서가 통합된 고대역폭 메모리(HBM)을 소개했다. 이 새로운 PIM (Processing-in-memory) 아키텍처는 AI 처리 역량을 메모리 내에서 구현할 수 있다. 프로세서 외부로 콘텐츠를 이동시킬 필요가 없어지는 셈이다. 양사는 데이터센터 내 대규모 처리, 고성능 컴퓨팅(HPC) 시스템, AI 모바일 애플리케이션 분야에 획기적인 개선이 가능하다고 강조했다.
 
Fancycrave (CC0) 


HBM은 디램과는 다른 종류의 메모리다. 2D 디자인으로 분산되지 않고 수직으로 쌓여 있기 때문에 데이터 이동 거리가 짧아질 수 있다. 단 동급 용량의 디램보다 약 30% 더 비싸다. HBM은 오늘날 프로세서, CPU, GPU 등에 주로 사용되며, 일반적으로 이동 거리를 최소화하기 위해 프로세서 칩 바로 옆에 배치되곤 한다. 가격 민감성이 덜한 HPC 및 AI 애플리케이션에 널리 쓰인다. 

삼성은 현대 컴퓨팅 시스템이 데이터 처리 작업을 수행할 때 별도의 프로세서와 메모리를 이용하는 폰 노이만 아키텍처를 이용하곤 한다고 설명했다. 데이터가 메모리와 CPU 사이를 오가며 이동한다는 의미다. 이러한 순차처리 접근 방식은 특히 지속적으로 증가하는 데이터 볼륨을 처리할 때 병목 현상을 초래할 수 있다. CPU 제조사들이 수년 동안 L1~L3 캐시를 늘려온 이유이기도 하다. 

삼성은 HBM-PIM의 경우 데이터가 저장된 위치에서 직접 처리될 수 있으며, 아쿠아볼트(Aquabolt)라는 이름의 HBM2 메모리가 적용된 새로운 아키첵처는 에너지 소비를 70% 이상 줄이면서 시스템 성능을 두 배 이상 향상시킬 수 있다고 강조했다. 또 HBM-PIM은 하드웨어나 소프트웨어 변경을 요구하지 않기 때문에 기존 시스템에 빠르게 통합할 수 있다고 회사는 덧붙였다. 

삼성전자 박광일 메모리 제품 기획 부사장은 성명서에서 “우리의 획기적인 HBM-PIM은 HPC, 교육 및 추론과 같은 다양한 AI 기반 워크로드에 맞게 조정된 업계 최초의 프로그래밍 가능한 PIM 솔루션이다. 더욱 발전된 PIM 기반 애플리케이션을 위해 AI 솔루션 제공 업체와 협력을 강화할 예정”이라고 밝혔다. 

한편 이번 삼성의 HBM-PIM은 현재 AI 솔루션 파트너 기업들이 테스트하고 있는 단계다. 삼성은 검증 작업이 올해 상반기 내에 완료될 것으로 예상했다. ciokr@idg.co.kr

X