Offcanvas

AI / 머신러닝|딥러닝 / 비즈니스|경제 / 애플리케이션

SK하이닉스 흑자 전환… ‘AI로 인한 디램 수요 증가 시사’

2024.01.26 Prasanth Aby Thomas  |  Computerworld
SK하이닉스가 주요 제품인 DDR5와 HBM3의 판매량이 전년 대비 각각 4배와 5배 증가했다고 지난 25일 발표했다.
 
ⓒ Getty Images Bank

SK하이닉스의 4분기 실적 호조는 AI 애플리케이션에 필수적인 고대역폭 메모리(HBM) 등 첨단 디램(DRAM) 칩에 대한 수요 증가를 시사한다. 

이번 실적 발표에서 SK하이닉스는 주요 제품인 DDR5와 HBM3의 판매량은 전년 대비 각각 4배, 5배 증가했다고 언급하며 매출 11조3,055억 원, 영업이익 3,460억 원을 냈다고 밝혔다. 분기 흑자를 낸 건 2022년 3분기 이후 약 1년 반만이다. 

SK하이닉스는 또한 AI 메모리의 핵심 제품인 HBM3E의 양산을 준비하고 있다. HBM4도 개발 중에 있으며, 고성능 디램의 수요에 대응하기 위해 DDR4, LPDDR5T 등 고성능, 고용량 제품도 공급하고 있다.

디램 수요를 촉진하는 AI
AI 시스템은 기존 컴퓨터의 성능을 뛰어넘는 수준의 데이터 처리 속도를 요구한다. AI 시스템 보급이 활성화되면서 디램 수요 역시 증가하고 있다. 마이크론은 2025년까지 전체 클라우드 인프라 서버에서 AI 서버가 차지하는 비율이 약 절반으로 증가하고 디램 수요도 6배 늘어날 것이라고 예측했다.

미국 반도체 그린필드 프로젝트 자문 회사인 팹이코노믹스의 CEO 대니쉬 파루퀴는 “생성형 AI 붐의 핵심에 있는 엔비디아 H100 GPU는 TSMC의 CoWoS(Chip-on-Wafer-on-Substrate) 패키징 아키텍처가 적용된 7다이 패키지로, 중앙에 6개 HBM 블록으로 둘러싸인 핵심 GPU 컴퓨팅 유닛이 있다. 각 HBM 블록에는 열 압축 본딩과 실리콘 관통 전극(through-silicon via)을 통해 하단 로직 다이에 본딩된 8개의 수직 적층 디램 다이가 있다”라고 설명했다.

그는 “HBM은 GPU 컴퓨팅 시스템과 함께 필수적인 요소다. 데이터센터 CPU에 큰 영향을 미치는 제한 사항인 AI 추론 및 학습 워크로드에서 이른바 ‘메모리 벽’의 제약을 완화해 준다”라고 덧붙였다.

마찬가지로 세계에서 가장 빠른 AI 하드웨어라고 불리는 AMD의 MI 300 AI 가속기는 각 유닛에 8개의 HBM 메모리 스택을 갖추고 있다. 기본 로직 다이에는 실리콘 관통 전극을 사용한 12개의 수직 적층 디램 다이가 있다.

독립 애널리스트인 아룬 맘파지는 “대역폭 요구 사항이 증가하면서 상호 연결된 디램 칩의 수직 스택인 HBM 수요가 늘고 있다. 이전에는 높은 비용이 보급을 제한하는 요인이었지만, 많은 사례에서 전해지듯 다른 옵션이 고갈되면서 효율성 요구 사항이 결국 비용 장벽을 무너뜨리고 있다. 게다가 일반적으로 캐시에 사용되는 S램은 더 이상 논리 회로의 속도에 맞춰 확장되지 않고 있다”라고 말했다.

주요 업계 플레이어가 얻게 될 폭넓은 이익
디램과 HBM 스택의 수요는 이 부문에서 활동하는 주요 기업에 도움이 될 것으로 예상된다.

파루퀴는 “팹이코노믹스가 조사한 향후 6년간의 HBM 수요 예측치에 따르면 AI 제품 중심의 대규모 수요에 비해 공급량이 크게 치우쳐 있다. 2024년까지 디램 매출에서 HBM이 차지하는 비중은 전년 대비 2.5배 증가할 것이며, 2030년까지 각 연도별로 다른 성장 요인이 작용할 것으로 보인다. 팹이코노믹스는 AI 제품 중심의 HBM 수요 및 공급 격차를 바탕으로 각 연도별 HBM 평균 판매가격(ASP)의 프리미엄을 예측했다. SK하이닉스, 마이크론, 삼성 등 업체의 이익률이 높아질 것으로 예상된다”라고 설명했다. 

HBM의 영향은 제조업체의 기술 준비 상태, 제조 역량 로드맵, 고객 충성도, 지정학적 고려 사항 등 요인에 따라 다를 수 있다.

파루퀴에 따르면 설계-팹-패키징-테스트 가치 사슬과 재료/장비 공급망 등 생태계 전반에서 AI 하드웨어가 주도하는 HBM 열풍의 혜택을 누릴 전망인 기업은 총 37곳이다. 그중 일부는 매우 높은 성장 잠재력을 갖고 있다.

더 많은 혁신이 진행 중
AI 칩 성능을 향상하는 데 디램이 중추적 역할을 하게 되면서 혁신과 개발도 중요해지고 있다. 카운터포인트 리서치의 부책임자인 브래디 왕은 여기에 고밀도의 메모리 칩과 모듈 제작 역량이 포함된다고 설명했다.

그는 “칩의 발전에는 더 미세한 선폭을 가진 칩을 만들고 3D 구조 설계를 개선하는 것 등이 있다. 일부 기업은 AI 처리에 내재된 고유 워크로드와 데이터 패턴을 효율적으로 관리하는 AI 전용 D램을 개발하기 위해 노력하고 있다”라고 말했다. 또한 기존 디램을 보완하거나 대체 가능성이 있는 MRAM, RRAM, CBRAM 등 새로운 메모리 기술 연구도 진행되고 있다. 

테크인사이트의 반도체 분석가 매니쉬 라왓은 “기업은 끊임없이 변화하는 시장 관리에 있어 전략적 고민의 우선순위를 정해야 한다. 특히 AI 애플리케이션이 더 복잡해지고 있기 때문에 메모리 대역폭과 처리량이 늘어난 디램 기술을 우선순위에 둘 수 있다. 실시간 애플리케이션에는 지연 시간이 짧은 솔루션이 필요하다”라고 진단했다.

다시 말해 기업은 액세스 시간이 짧은 디램의 발전을 추구해야 한다. AI 애플리케이션의 대규모 병렬 처리에는 에너지 효율성과 확장성이 필요하기 때문에 전력 소비 관련 솔루션에 대한 중요성이 점점 더 강조되고 있다. ciokr@idg.co.kr
CIO Korea 뉴스레터 및 IT 트랜드 보고서 무료 구독하기
Sponsored
추천 테크라이브러리

회사명:한국IDG 제호: CIO Korea 주소 : 서울시 중구 세종대로 23, 4층 우)04512
등록번호 : 서울 아01641 등록발행일자 : 2011년 05월 27일

발행인 : 박형미 편집인 : 천신응 청소년보호책임자 : 한정규
사업자 등록번호 : 214-87-22467 Tel : 02-558-6950

Copyright © 2024 International Data Group. All rights reserved.