SK하이닉스 "HBM 수요 더 늘어날 것…7세대 HBM4E도 준비단계"

이강욱 패키징개발 부사장 '세미콘 타이완 2024' 세션서 발표

2024-09-03     박소란 기자
이강욱 SK하이닉스 PKG개발 담당 부사장/사진=SK하이닉스

[이슈앤비즈 박소란 기자] 이강욱 SK하이닉스 PKG(패키징)개발 담당 부사장은 "응용 제품에 따라 다르지만 고대역폭 메모리(HBM) 세대가 발전하면서 훈련, 추론 인공지능(AI) 서버에 탑재되는 평균 채택 숫자는 더 늘어날 것"이라고 3일 밝혔다.

이 부사장은 이날 대만 타이베이 난강전시장에서 열린 '이종집적 글로벌 서밋(Heterogeneous Integration Global Summit) 2024'에서 'AI 시대를 위한 HBM과 어드밴스드 패키징 기술'이란 주제로 발표에 나서 이같이 전했다.

이번 행사는 오는 4일 개막하는 '세미콘 타이완 2024'의 세션 중 하나로 열렸다.

HBM은 AI 칩의 필수 반도체로, 늘어나는 데이터 트래픽과 이로 인한 메모리의 시스템 병목 현상을 극복하기 위한 현존 최고 사양의 D램이 HBM이라는 게 이 부사장의 설명이다.

이에 따라 HBM은 AI 서버와 고성능 컴퓨팅용 메모리로 광범위하게 채택되고 있다.

이 부사장은 "현재 HBM3E 8단·12단은 초당 1.18TB(테라바이트) 이상의 데이터를 처리하며 최대 36GB(기가바이트)의 용량을 지원한다"며 "HBM4는 12·16단으로 공급되며 용량은 최대 48GB까지, 데이터 처리 속도는 초당 1.65TB 이상으로 성능이 발전한다"고 했다.

그러면서 "HBM4부터는 베이스 다이에 로직 공정을 적용해 성능 및 에너지 효율 향상을 기대하고 있다"고 덧붙였다.

이 부사장은 HBM 성능 발전에 따라 HBM에 대한 수요는 AI 시장에서 더 늘어날 것으로 내다봤다.

업계에 따르면 지난해부터 2032년까지 생성형 AI 시장은 연평균 27% 성장할 것으로 예상되는 가운데 HBM 시장은 2022년부터 2025년까지 이미 연평균 109%의 성장이 전망된다고 말했다.