수학 AI 집대성 알파이볼브 개발
AI 훈련 알고리즘 스스로 개선해
컴퓨팅 비용 경쟁 핵심 될 가능성
구글은 2014년 인수한 영국 인공지능(AI) 기업 딥마인드를 통해 초기 AI 발전을 이끌었습니다. 어텐션 기법, 트랜스포머 등 생성형 AI의 초석이 된 기술을 발명했지요. 하지만 상업화에는 오픈AI 등 경쟁 기업보다 뒤처진다는 평가를 받으며 한때 위기론이 부상하기도 했는데요. 구글 딥마인드는 수학 문제 푸는 AI, 단백질 구조 예측 AI 등 순수 과학 연구에 더 주력하는 모습을 보였지요.
당장 돈이 되는 AI보다는 과학 연구에 집중했던 구글이 드디어 보상받을지도 모르겠습니다. 최근 구글이 공개한 '알고리즘 찾는 AI' 알파이볼브(Alphaevolve)는 그동안 딥마인드가 집중했던 수학 AI 연구의 집대성이며, 현재 AI 산업의 최대 문제인 컴퓨팅 비용 문제를 해결할 잠재력을 품고 있습니다.
수학 문제 푸는 AI에 관심 많던 구글, 알파이볼브 완성
알파이볼브 공개 후 순더 피차이(왼쪽) 구글 CEO는 데미스 허사비스 딥마인드 창업자와 함께 찍은 사진을 게재했다. 순더 피차이 엑스(X) 캡처
구글 딥마인드는 지난 14일(현지시간) 알파이볼브를 공개했습니다. 알파이볼브는 AI 에이전트(비서)로, 컴퓨터 프로그램의 알고리즘 성능을 스스로 개선하고 검증하는 모델입니다.
구글의 생성형 AI인 '제미나이 플래시'가 새 알고리즘들을 생성하면, '제미나이 프로'가 가상 환경에서 해당 알고리즘을 테스트한 뒤 가장 뛰어난 것만 골라 제안하는 방식입니다. 이로써 AI의 고질적 문제인 환각 위험을 줄일 수 있고, 인간 프로그래머도 안심하고 AI가 내놓은 솔루션을 적용할 수 있습니다.
알파이볼브는 딥마인드가 그동안 수행해 온 AI 수학 연구의 집대성입니다. 앞서 딥마인드는 고차원적인 수학 문제를 푸는 알파지오메트리·알파텐서 개발에 꾸준히 투자했고, 그 결과 행렬 곱셈 최적화에 특화한 알파이볼브도 완성할 수 있었기 때문이지요.
AI 알고리즘 핵심, 행렬 곱셈 최적화
일반적으로 4X5 행렬과 5X5 행렬을 곱하려면 100회의 연산을 거쳐야 하지만, 1969년 슈트라센 알고리즘의 발견으로 80회까지 줄였다. 알파이볼브는 76회로 줄이는 데 성공했다. 구글 캡처
행렬 곱셈은 거의 모든 알고리즘, 특히 AI 알고리즘의 핵심입니다. 생성형 AI 훈련도 천문학적인 양의 행렬 곱셈 데이터를 잘게 쪼개 그래픽처리유닛(GPU)으로 처리하는 과정입니다. 따라서 행렬 곱셈 연산을 더 빠르게, 더 효율적으로 수행하는 방법을 알아낸다면 AI의 근본적인 성능을 늘릴 수 있습니다.
지금껏 수많은 수학자가 더 빠른 행렬 곱셈 연산법을 연구해 왔지만, 이제 인간의 지혜로는 한계에 직면한 상태입니다. 반면 지치지 않고 끊임없이 실험과 결과 검증 작업을 반복하는 AI는 어쩌면 인간이 찾지 못한 돌파구를 고안할 수 있습니다. 구글의 발표에 따르면, 알파이볼브는 5X4 행렬과 5X5 행렬을 곱하는 데 필요한 연산 횟수를 기존 80회에서 76회로 4회 단축하는 데 성공했습니다. 1969년 슈트라센 알고리즘 발견 이후 56년간 정체된 행렬곱 알고리즘을 개선한 겁니다.
이같은 알고리즘 개선은 현재 AI 산업의 가장 큰 화두인 컴퓨팅 자원 비용을 줄일 핵심입니다. AI 훈련 과정에 필요한 행렬 곱셈 연산 횟수를 줄이면, 그만큼 GPU 숫자도 아낄 수 있으니까요. 줄어든 GPU 수만큼 기업 입장에선 부담을 덜 수 있습니다. 딥마인드는 이미 초기형 알파이볼브를 구글 데이터센터에 투입해 테스트한 결과 전체 컴퓨팅 자원의 0.7%를 줄이는 데 성공했다고 밝혔습니다.
0.7% 효율화의 의의…AI 자본 경쟁 승리 돌파구
'컴퓨팅 자원 비용의 0.7%'는 숫자상으론 미약해 보이지만, AI 투자라는 관점으로 바꿔 보면 상당한 금액입니다. 구글은 2023년 5만개의 텐서처리유닛(TPU)을 AI 훈련 작업에 사용 중이라고 밝힌 바 있습니다. 0.7%는 TPU 350개에 해당합니다. 최신 버전 TPU인 TPUv5p의 1년 약정 가격은 구글 클라우드 기준 대당 2만5752달러(약 3500만원)인데, 알파이볼브는 테스트 버전만으로 벌써 최소 900만달러(약 124억원)의 비용을 아낀 셈입니다.
구글의 자체 개발 AI용 컴퓨터 칩 TPU 시리즈. 최신 세대인 TPUv5 계열은 각종 벤치마크에서 엔비디아 H100과 유사한 성능을 기록했다. 구글
알파이볼브의 알고리즘 개선 효과는 점점 더 높아질 것입니다. 앞으로 수년 뒤 대형 AI 모델 훈련에 쓰이는 칩은 수십만개에 이를 텐데, 이 가운데 3~4%만 아낄 수 있어도 초대형 데이터센터 1~2개 비용을 절감한다는 뜻입니다.
구글의 AI 라이벌인 오픈AI도 수백만개의 GPU를 탑재한 초대형 데이터센터를 구축하기 위해 '스타게이트' 프로젝트를 진행 중이며, 비용은 4년간 5000억달러(약 690조원)로 추산합니다. AI 경쟁에서 뒤처지지 않으려면 구글도 자본 경쟁을 이어가야겠지만, 알파이볼브의 발전에 힘입어 스타게이트급 컴퓨팅 효과를 더욱 저렴한 비용으로 손에 넣을 가능성이 있습니다.
임주형 기자 skepped@asiae.co.kr
Copyright © 아시아경제. 무단전재 및 재배포 금지.
매주 일요일 밤 0시에 랭킹을 초기화합니다.