김정호 한국과학기술원(KAIST) 전기·전자공학부 교수
고대역폭메모리(HBM)가 LPDDR D램, 플래시(낸드), 캐시 등 인공지능(AI) 반도체에 탑재되는 다른 메모리를 통합 제어하는 형태로 진화할 것이라는 전망이 나왔다. HBM4에서 LPDDR을 시작으로 HBM7에서는 3D 낸드를 수직으로 쌓은 고대역폭플래시(HBF)와도 연결될 것으로 예상했다.
김정호 한국과학기술원(KAIST) 전기·전자공학부 교수는 11일 온라인으로 열린 '차세대 HBM 로드맵 기술 발표회'를 통해 “HBM은 더 이상 그래픽처리장치(GPU) 옆에 배치되는 보조 메모리가 아니다”라며 “LPDDR D램, 플래시, 캐시 등 다양한 메모리와 GPU 간의 트래픽을 관리하는 중심 허브가 될 것”이라고 밝혔다.
김 교수는 HBM의 기본 구조를 창안하고 상용화에 기여한 세계적 권위자로 'HBM의 아버지'로 불린다. 20년 이상 HBM의 핵심 구조와 설계 기술을 주도해왔다. 그는 향후 HBM이 나아갈 방향을 제시하기 위해 자체 로드맵을 만들어 발표했다.
HBM3와 HBM4를 사용하는 AI 반도체 아키텍처 비교(출처:KAIST)
그는 HBM4(2026년)부터 GPU 외부 메모리인 LPDDR을 직접 연결해 데이터를 주고받는 구조가 도입될 것이라고 예상했다. 기존에는 중앙처리장치(CPU)를 거쳐 LPDDR 데이터를 읽어와야 했으나 앞으로는 HBM이 직접 연결돼 독립적인 데이터 흐름을 제어하게 된다는 설명이다. 또 LPDDR D램도 수직으로 쌓은 'LPDDR-HBM' 형태로 진화할 것이라고 전망했다.
HBM의 데이터 처리 역할의 중요성은 HBM7(2035년)을 기점으로 크게 커진다고 판단했다. GPU로 가는 모든 데이터가 HBM을 거치는 형태다. 3D 낸드를 수직으로 쌓은 HBF가 새롭게 등장하고, AI 반도체 외부에 위치한 DDIM, SSD 등도 컴퓨트 익스프레스 링크(CXL) 등의 방식으로 연결된다고 분석했다.
HBM7 아키텍처(출처:KAIST)
김 교수는 이같은 역할 수행을 위해 HBM4부터 도입되는 베이스 다이 역할이 중요해진다고 진단했다. HBM5(2029년)부터 베이스 다이의 기능 확장을 예상하면서 일례로 데이터 압축, 에러 보정, 어텐션 연산 일부를 담당하게 될 것이라고 내다봤다. GPU 내 캐시메모리도 HBM이나 인터포저에 통합하는 시도가 이뤄질 것이라고 예상했다.
김 교수는 이제 GPU 코어 수보다 데이터를 얼마나 빠르게 전달하느냐가 AI 반도체 성능을 좌우한다면서, HBM 중요성이 더 커질 것이라고 강조했다.
그는 “향후 HBM은 다양한 메모리 계층을 직접 연결하고, 데이터 흐름을 제어하게 될 것”이라며 “지금까지는 CPU·GPU 중심 컴퓨팅 구조였지만 앞으로는 HBM이 중심이 되는 HBM 센트릭 컴퓨팅으로 갈 수밖에 없을 것”이라고 강조했다.
박진형 기자 jin@etnews.com
Copyright © 전자신문. 무단전재 및 재배포 금지.
매주 일요일 밤 0시에 랭킹을 초기화합니다.