구글, 엔비디아 품고 AI 인프라 공략
베라루빈 품은 A5X 전면에 … HBM 수요확대 주목
구글이 기존 클라우드·데이터센터 역량을 기업용 인공지능(AI) 인프라 사업으로 본격 확장하고 있다. 로이터는 22일(현지시간) 라스베가스에서 열린 구글 연례 클라우드 행사에서 구글이 기업용 AI 에이전트를 실제 업무에 배포할 수 있는 인프라·플랫폼 공급자로 본격 나섰다고 분석했다. 구글은 자체 AI 반도체 TPU와 엔비디아의 차세대 AI 칩 기반 인프라를 함께 내세웠다. 기업 고객을 겨냥한 AI 데이터센터 사업을 강화하려는 행보다.
구글은 그간 자체 TPU 개발로 엔비디아 의존도를 낮추려는 대표적 빅테크로 꼽혀 왔다. 그러나 이번 에는 방향을 달리했다. 구글은 TPU와 엔비디아 GPU를 함께 제공하는 병행 전략을 공식화하며 엔비디아 칩을 적극 끌어안았다. 기업 고객은 구글 클라우드 안에서 TPU와 엔비디아 GPU 기반 인프라를 용도에 맞게 선택할 수 있다.
도입 시기는 2026년이다. 구글은 현재 제공 중인 호퍼·블랙웰 기반 엔비디아 GPU 인프라에 추가해, 차세대 베라루빈 NVL72 기반 인프라를 2026년 가장 먼저 공급하는 클라우드 사업자 중 하나가 되겠다고 밝혔다. 마크 로마이어 구글 컴퓨팅·AI 인프라 담당 부사장은 “구글이 올해 하반기 나올 엔비디아의 새 설계 기반 장비를 초기 도입하는 기업 중 하나가 될 계획”이라고 블룸버그통신에 말했다.
구체적인 제품은 A5X다. 엔비디아 베라루빈 NVL72 기반 구글 클라우드의 전용 서버형 AI 인프라로, 대규모 AI 학습과 추론 작업을 겨냥한 상품이다. 구글은 이번 행사에서 최신 세대 자체 TPU도 공개했다. 새 TPU는 훈련용 TPU 8t와 추론용 TPU 8i로 나뉜다. TPU 8t는 이전 세대보다 전력당 성능이 124%, TPU 8i는 117% 개선됐다고 밝혔다.
공개된 것은 실제 구매 물량이 아니라 확장 가능 규모다. 구글과 엔비디아는 A5X가 단일 데이터센터에서 최대 8만개 GPU, 여러 데이터센터를 연결한 클러스터에서는 최대 96만개 GPU까지 확장 가능하다고 설명했다.
한국 반도체 업계가 주목할 대목은 메모리 수요다. 구글은 추론용 TPU 8i 경우 포드 기준 HBM 용량이 이전 세대보다 6.8배 늘어난다고 발표했다. 구글이 엔비디아 의존도를 낮추려 자체 TPU를 강화하더라도, TPU 역시 대규모 HBM을 필요로 한다는 점에서 삼성전자와 SK하이닉스 등 메모리 업체에는 긍정적 신호로 읽힌다.
AI 경쟁의 무게중심이 모델 성능에서 데이터센터와 반도체 조달 능력으로 이동하고 있다. 기업이 AI 챗봇, 업무 자동화, 영상 분석 등을 실제 현장에 적용할수록 추론 연산 수요는 폭발적으로 늘어난다. 구글의 노림수는 여기에 있다. 제미나이 엔터프라이즈로 기업의 AI 모델 운용을 맡고, 그 연산을 TPU와 엔비디아 GPU 기반 자사 클라우드 인프라에서 처리해 매출로 직결시키는 구조다.
구글은 맥킨지, 액센츄어, 딜로이트 등 글로벌 컨설팅 고객사들과 협력 체계를 구축에 나선다. 구글 클라우드는 이들 컨설팅사가 고객사에 에이전트형 AI를 도입하도록 7억5000만달러 규모의 펀드를 조성해 엔지니어 교육, 제미나이 기반 AI 에이전트 개발, 고객 프로젝트 공동 투자 등에 쓴다. 이들이 기업의 AI 전환 프로젝트를 설계하면 연산 수요가 구글 클라우드 인프라로 이어질 가능성도 크다.
구글은 AI 모델, 클라우드 플랫폼, 자체 TPU, 엔비디아 GPU, 컨설팅 영업망을 묶어 기업의 AI 도입을 실제 데이터센터 수요로 전환하려 하고 있다. 이번 발표는 한국 반도체 업계가 주시해야 할 빅테크의 새 전략 신호다.
이주영 기자 123@naeil.com