인텔 가우디로 脫엔비디아 시도, 6개월 만에 성과 쏟아져
“엔비디아 GPU 대비 1.2배 빠른 추론 성능“
인텔 “가우디, 가격뿐만 아니라 성능서도 이점 확보”
이동수 네이버클라우드 전무. /황민규 기자
전 세계적으로 인공지능(AI) 생태계 투자 붐이 일고 있는 가운데 국내에서는 기업, 학계 모두 엔비디아의 그래픽처리장치(GPU) 수급과 운영 비용 문제로 골머리를 앓고 있다. 특히 엔비디아 GPU에 서비스, 연구개발(R&D)이 종속되기 시작하면서 미국을 비롯한 주요 국가에서는 대체재 마련에 고심하고 있는 상황이다. 국내에서도 인텔과 네이버, 카이스트가 합심해 탈(脫)엔비디아를 모색해 왔고 최근 의미 있는 성과를 도출해냈다.
29일 인텔코리아는 네이버클라우드, 카이스트와 ‘가우디 공동연구 성과 공유 간담회’를 진행하고 그동안의 연구결과를 공개했다. 인텔은 네이버와 국내 주요 대학(카이스트, 포스텍, 서울대)이 참여하는 산학 협력 프로젝트를 추진했다. 거대언어모델(LLM)을 비롯해 고대역폭메모리(HBM) 설계 등 다양한 분야에서의 실증이 이뤄졌고 결과적으로 엔비디아 GPU 없이도 비용 효율적인 결과를 도출해 냈다.
김정호 카이스트 교수는 “이번 연구는 반도체, AI 서비스, 학계 연구 등 서로 떨어져 있던 분야를 모아 엔비디아 위주의 생태계를 깨보는 방식으로 AI 산업 성장을 도모했고 지난해 8월부터 본격적으로 시작했다”며 “연구자 입장에서 (인텔 가우디를 기반으로 한 이번 작업은) 프로젝트를 시작한 지 불과 6개월 만에 15개의 논문이 나올 정도로 성공적이었다”고 설명했다.
그는 이어 “연구 성과 측면에서도 미국 MIT 등을 뛰어넘을 수 있는 기회가 됐다”며 “인텔의 적극적인 지원과 네이버의 소프트웨어 제공 등을 바탕으로 AI 강화 학습뿐만 아니라 HBM 설계에 AI를 활용하는 등 많은 부분에서 성과를 기록했다”고 말했다. 이어 “이 같은 협력 모델은 세계적으로도 드물고 기회가 되면 이 같은 AI 연구개발 모델로 (엔비디아 중심의) 생태계를 바꿔보고 싶다”고 설명했다.
서비스 측면에서도 실증적인 성공 사례가 나왔다. 이날 네이버는 데이터센터 환경에서 가우디를 기반으로 한 LLM 성능을 검증 중이며, 오픈소스 모델 ‘LLaMA’ 기준으로 엔비디아의 A100과 비교해 최대 1.2배 빠른 추론 성능을 확보했다고 밝혔다. 이날 이동수 네이버클라우드 전무는 “이번 사례가 국가 어젠다로서 더 많은 사례가 나왔으면 한다”며 “인텔과 국내 AI 연구자들의 노력으로 불과 6개월 만에 높은 수준의 논문이 쏟아졌다”고 말했다.
조민성 인텔코리아 이사는 “인텔과 네이버, 카이스트의 공동 연구 사례는 인텔의 AI 가속기인 가우디가 어떻게 엔비디아의 대항마가 될 수 있는 지 보여줬다”며 “가우디는 엔비디아 GPU보다 가격만 싼 것이 장점이 아니라 많은 실험을 통해 성능을 입증했다”고 설명했다. 이어 “엔비디아의 GPU처럼 특정 네트워킹에 종속되는 것이 아니라 더욱 다양한 회사와의 협업이 가능하다는 측면에서 AI 생태계 확산에 기여할 수 있다”고 설명했다.
인텔은 IBM, 델, 마이크로소프트(MS) 등과도 AI 가속기 파트너십을 강화하고 있다. 최근 델은 자사의 AI 플랫폼에 탑재된 인텔 가우디3가 생성형 AI 워크로드에서 경쟁력 있는 가격 대비 우수한 성능을 보였다고 밝힌 바 있다. 업계 주력 GPU인 엔비디아 H100보다 라마(Llama)3 80B 모델 추론 처리량에서 70%가량 우수한 가격대 성능비를 입증했다는 설명이다.
인텔 가우디3는 엔비디아 GPU의 대항마로 주목받고 있다. 시장조사업체 시그널65의 최근 AI 추론 벤치마크에 따르면 가우디3는 메타의 라마(Llama)-3.1-405B 모델 기준으로 경쟁사 GPU 대비 92% 높은 비용 효율성을 기록했다. 초당 처리 토큰 수(Tokens per Second)에서도 최대 43%의 우위를 보이며, AI 추론 워크로드에서 성능을 입증하기도 했다.
- Copyright ⓒ 조선비즈 & Chosun.com -
Copyright © 조선비즈. 무단전재 및 재배포 금지.
매주 일요일 밤 0시에 랭킹을 초기화합니다.