KAIST 김정호 교수 연구실
‘차세대 HBM 로드맵’ 제시
올해 1월 미국 라스베이거스에서 열린 세계 최대 IT 전시회 ‘CES 2025’에서 SK하이닉스가 공개한 고대역폭 메모리 HBM3E 모형. /SK하이닉스
미국 마이크론이 6세대 고대역폭메모리(HBM)인 HBM4를 주요 고객사에 납품하기 위한 샘플을 공급했다고 10일 밝혔다. HBM은 메모리 반도체인 D램을 여러 층 쌓아 만든 반도체다. 방대한 양의 데이터를 처리하는 대표적 인공지능(AI) 칩이다. HBM의 주도권을 누가 쥐느냐에 따라 글로벌 메모리 산업의 지형이 변할 수밖에 없다. SK하이닉스와 삼성전자, 마이크론 등 주요 메모리 기업들이 차세대 HBM 개발에 역량을 쏟아붓는 이유다.
앞으로 HBM은 어떻게 발전할까? 김정호 KAIST 교수 연구실(KAIST 테라랩)은 11일 ‘차세대 HBM 로드맵(2025~2040) 기술 발표회’를 열고 앞으로 개발될 HBM의 성능과 구조의 방향성을 제시했다. 내년 본격 적용될 HBM4부터 2038년 HBM8까지다. 김 교수는 2010년 세계에서 처음으로 HBM의 기본 구조를 제시해 국내 반도체 기업들이 HBM 사업을 시작할 수 있게 주춧돌을 놓았다. 그는 “HBM이 앞으로 15~20년 우리 산업을 끌어갈 것”이라며 “남이 정한 스펙(표준)을 따라가는 것이 아니라 한국 반도체가 주도권을 쥐려면 먼저 모델을 제시해야 한다”고 했다.
◇고객 맞춤형 제품 되는 HBM4
엔비디아의 AI 칩(AI 가속기)은 연산을 담당하는 그래픽처리장치(GPU)와 HBM 4~8개를 조립(패키징)해 만든다. 엔비디아의 AI 칩 ‘H100’에는 GPU 1개와 HBM 6개가 들어간다. 범용 제품인 HBM의 역할은 데이터를 빠르게 처리하고 전송하는 것이다. 업체들은 성능을 높이기 위해 D램을 더 얇게, 더 많이 쌓는 경쟁에 집중했다.
그래픽=백형선
내년 나올 HBM4부터는 경쟁의 양상이 달라질 전망이다. 고객 맞춤형 제품이 될 것이란 게 김 교수의 예측이다. HBM4부터는 GPU에서 하는 일부 연산 기능을 HBM의 가장 아래에 놓인 기판(베이스 다이)이 수행하면서다. 이 기판은 지금까지 GPU와 HBM을 단순히 연결하는 역할만 하던 것이다. 하지만 이제는 D램을 쌓는 것보다는 기판의 성능이 HBM의 성능을 결정하게 될 것으로 예상된다. 엔비디아·구글 등 최종 AI 칩을 만드는 기업들이 원하는 요구에 맞춰 기판을 설계·제작하고, 그에 따라 HBM을 생산해야 하는 것이다. 김 교수는 “고객 맞춤형 HBM을 위해서는 설계 능력이 필요하다”며 “HBM은 표준화된 제품이 아닌 고객 중심으로 바뀔 것”이라고 했다.
이 때문에 앞으로 패키징 기술이 더욱 중요해질 것으로 예상된다. 패키징 기술은 여러 개의 D램을 조립하는 기술이다. 실제 자체적으로 조립했던 SK하이닉스는 기술력이 높은 대만 TSMC와 패키징 기술을 협력하고 있다. HBM4부터 함께 제작한다는 계획이다. 삼성전자는 지난 1분기 실적 발표에서 “커스텀(고객 맞춤형) HBM 또한 HBM4 기반으로 복수의 고객과 협의 중”이라고 했다.
◇차세대 HBM 모습은?
HBM은 세대를 거듭할수록 데이터 처리량이 급증할 전망이다. HBM4의 데이터 전송 능력은 현재 상용화된 HBM3E의 2배에 달하며, 2038년 HBM8 때는 64배에 이를 것으로 예상된다. HBM8에는 D램이 최대 24개 쌓일 전망이다. 현재는 12단이 최고 높이다.
김 교수는 발열을 잡는 설계와 기술이 중요해질 것이라고 밝혔다. 데이터 처리가 많아지면서 소모 전력도 늘어나기 때문이다. 김 교수는 “HBM5(2029년)부터는 물이나 질소 등 액체를 HBM에 통과시켜 열을 식히는 기술들이 적용될 것으로 예측한다”고 했다.
AI 칩에서 HBM의 역할은 더욱 커질 것이란 게 김 교수의 예측이다. HBM이 주변의 다른 메모리와 직접 연결되면서 성능이 대폭 향상될 수 있다는 것이다. 앞으로 HBM 주변으로 다른 메모리(LPDDR)가 직접 연결되며, HBM7(2035년)부터는 낸드 플래시 메모리를 여러 층 쌓은 칩(HBF)도 탑재될 것이란 예상이다.
HBM8는 3D(입체)로 AI 칩이 만들어질 것으로 보인다. 현재는 반도체 기판 위에 GPU와 HBM을 놓았지만, 기판 아래에도 더 많은 HBM을 붙여 용량을 대폭 늘리는 것이다.
☞고대역폭 메모리(HBM)
D램을 여러 층 쌓아 만든 고성능 메모리 반도체. 데이터 처리 속도가 빨라 AI 학습에 핵심적 역할을 한다. SK하이닉스와 삼성전자, 마이크론이 주요 개발사이며 현재 5세대(HBM3E)까지 상용화됐다.
Copyright © 조선일보. 무단전재 및 재배포 금지.
매주 일요일 밤 0시에 랭킹을 초기화합니다.