2038년 HBM8은 GPU와 광통신 연결
컴퓨팅 설계 GPU 아닌 HBM 중심으로
반도체 성능 좌우할 요소 패키징→냉각
AI반도체 주도권 위해 새로운 설계 필요
4월 서울 강남구 코엑스에서 열린 '월드IT쇼'에 전시된 SK하이닉스의 고대역폭메모리(HBM) 반도체 모델을 관람객들이 살펴보고 있다. AP 연합뉴스
"고대역폭메모리(HBM) 반도체 안에 물이 흐르고, HBM과 그래픽처리장치(GPU)는 광통신으로 빠르게 정보를 주고받는다."
‘HBM의 아버지’로 불리는 김정호 한국과학기술원(KAIST·카이스트) 전기및전자공학부 교수가 11일 ‘차세대 HBM 로드맵(2025~2040) 기술 발표회’에서 제시한 2038년 HBM8의 형태다. 지금으로선 쉽게 상상하기 어려운 구조지만, 김 교수 연구실인 ‘테라랩’의 연구결과들은 이런 예측을 뒷받침하고 있다.
김 교수가 발표한 로드맵은 앞으로 생성형 인공지능(AI)이 전세계에서 활용되고, 피지컬(물리적) AI와 일반인공지능(AGI)이 도래하는 시대를 전제로 한다. HBM은 대역폭이 높아 대량의 데이터를 동시에 빠르게 처리할 수 있는 메모리 반도체로, GPU 같은 고성능 AI 반도체가 최대한 성능을 발휘하도록 돕는다.
수십억 명이 생성형 AI를 활용하고 막대한 데이터를 주고받을 미래에는 HBM의 성능이 AI 서비스의 성능을 좌우할 것으로 예상된다. 이에 HBM의 △데이터 전송 대역폭 △처리 용량 △전력 소모는 세대를 거듭하며 2배씩 성장해야 한다는 게 김 교수의 분석이다.
대역폭이 중요한 이유는 HBM과 GPU가 데이터를 주고받는 속도를 결정하기 때문이다. 김 교수는 HBM의 데이터 전송 통로인 실리콘관통전극(TSV)의 구멍 개수가 최신 모델인 HBM3E 기준 1,024개에서 HBM4는 2배인 2,048개, HBM8은 1만6,384개로 늘어날 것이라고 전망했다. 그는 “이 많은 TSV 구멍을 정밀하게 뚫고 가공하는 기술을 준비하는 게 소재·부품·장비 기업의 경쟁력을 가를것”이라고 내다봤다.
TSV의 개수로 속도를 높이는 데는 한계가 있다. 이에 HBM8 시대에는 광통신을 적용해 데이터 전송 속도를 높이는 시도도 예상된다. 또 HBM이 GPU에 데이터를 보내기에 앞서 직접 연산을 처리하는 컴퓨팅 능력을 갖게 될 거라는 전망도 나왔다. 이 같은 경향은 이미 설계와 샘플 납품이 진행 중인 HBM4에서도 나타나고 있다. 초반엔 GPU 연산의 일부로 시작하지만, 향후 HBM이 컴퓨팅의 중심이 되는 설계가 확산할 거란 예측이다.
2032~35년쯤 등장할 HBM6, 7에는 데이터 저장 용량을 확대하기 위해 이종 메모리 시스템 구조가 적용될 것으로 예상된다. HBM을 여러 개 연결해 쌓는 데 이어, 고대역폭플래시메모리(HBF), 저전력D램(LPDDR)과 연결해 성능을 높이고 저전력 고효율 컴퓨팅을 구현하는 것이다.
새로운 설계가 제 성능을 발휘하려면 전력 소모 증가에 따른 높은 열 발생도 관리해야 한다. 김 교수는 “6세대까지는 반도체의 패키징이 중요하겠지만, 7세대부터는 냉각이 성능을 좌우할 것”이라고 말했다. 이에 반도체를 냉각수에 잠기게 하는 ‘액침 냉각’에서 한발 더 나아가 HBM7(2035년)부터는 냉각수를 HBM에 직접 주입하는 대안이 시도될 것으로 보인다.
김정호 카이스트 전기및전자공학부 교수. 카이스트 제공
김 교수는 향후 우리나라 반도체 산업 생존이 HBM으로 결정될 것이라 보고 로드맵을 제시했다고 밝혔다. 그는”삼성전자와 SK하이닉스가 현재 시장점유율 90%를 차지하고 있지만, 더 이상 ‘패스트 팔로워’에 만족하지 않고 AI 반도체의 주도권을 잡기 위한 새로운 설계를 만들어가야 한다”고 강조했다.
신혜정 기자 arete@hankookilbo.com
Copyright © 한국일보. 무단전재 및 재배포 금지.
매주 일요일 밤 0시에 랭킹을 초기화합니다.