지난 10년간 인공지능 인프라 시장은 엔비디아의 독무대였다. CUDA라는 견고한 소프트웨어 생태계와 GPU 성능의 가파른 성장은 엔비디아에게 AI 개발의 사실상 ‘통행세’를 걷는 독점적 지위를 안겨줬다. 전 세계 AI 스타트업부터 빅테크까지, 누구든 AI를 하려면 엔비디아의 칩을 사야 했고, 엔비디아가 정한 가격을 지불해야 했다. 75%에 달하는 매출 총이익률은 이 독점의 크기를 숫자로 증명했다.

하지만 2025년 11월, 판이 뒤집히기 시작했다. 구글이 움직인 것이다.

자체 설계한 커스텀 실리콘 TPU v7 아이언우드, 압도적 성능의 제미나이 3.0, 에이전트 중심 개발 플랫폼 안티그래비티, 그리고 보스턴 다이나믹스 출신 핵심 인재 영입을 통한 피지컬 AI 확장까지. 구글은 전방위적 반격에 나섰다. 이는 단순한 신제품 출시가 아니다. 구글은 데이터센터의 광회로 스위치부터 사용자 화면의 생성형 픽셀까지, AI 스택의 모든 계층을 장악하는 ‘디지털 수직계열화’를 완성했다.

엔비디아 같은 부품 공급사를 단순 유틸리티로 만들겠다는 전략이다. 메타의 TPU 도입 루머로 촉발된 엔비디아 주가 급락은 시작에 불과하다. 이 글에서는 블랙웰 B200 대비 TPU v7의 기술적 우위, CUDA 장벽을 무너뜨리는 JAX/XLA의 혁명, 그리고 로봇 공학으로 확장되는 구글의 야망을 살펴본다.

TPU v7 아이언우드 vs 엔비디아 B200

AI 하드웨어 경쟁은 오랫동안 단일 칩의 연산 성능으로 승부가 갈렸다. 누가 더 많은 FLOPS를 뽑아내는가, 누가 더 큰 메모리 대역폭을 확보하는가. 이 경쟁에서 엔비디아는 언제나 선두였다. 하지만 구글의 7세대 TPU 아이언우드는 게임의 규칙 자체를 바꿨다. 경쟁의 축을 ‘개별 칩 성능’에서 ‘시스템 레벨 확장성’으로 옮긴 것이다.

엔비디아 블랙웰 B100/B200은 리소그래피와 아키텍처 밀도 면에서 경이로운 성과물이다. 최첨단 공정을 활용해 트랜지스터 집적도를 극한까지 끌어올렸고, FP8 연산 성능에서 4.5 PFLOPS라는 놀라운 수치를 달성했다. 하지만 근본적으로 그래픽 처리용으로 설계된 구조의 한계를 안고 있다.

GPU는 태생적으로 호스트 시스템에 부착되는 개별 가속기다. 여러 GPU를 연결하려면 NVLink와 NVSwitch라는 독자 인터커넥트 기술에 의존해야 한다. 블랙웰 아키텍처는 단일 NVLink 도메인에서 최대 72개 GPU까지만 묶을 수 있다. 그 이상의 규모로 확장하려면 인피니밴드나 이더넷 같은 표준 네트워크에 의존해야 한다. 문제는 여기서 발생한다. 표준 네트워크를 경유하는 순간, 레이턴시가 급증하고 전력 효율이 떨어진다. 거대 모델 학습 시 피할 수 없는 ‘분산 컴퓨팅 세금’이다.

구글 아이언우드는 완전히 다른 접근법을 택했다. 9,216개 칩이 마치 하나의 거대한 컴퓨터처럼 작동하는 ‘수퍼노드’ 설계다. 이를 가능하게 한 핵심 기술은 구리선이 아닌 구글 독자 광회로 스위치다.

기존 전기 패킷 스위치는 데이터를 읽고, 버퍼에 저장하고, 라우팅 테이블을 참조해 목적지를 결정한 뒤 전송한다. 이 과정에서 막대한 전력이 소모되고 레이턴시가 발생한다. 구글의 광회로 스위치는 근본적으로 다르게 작동한다. 미세전자기계시스템(MEMS) 거울로 빛의 경로를 물리적으로 반사시킨다. 데이터를 읽거나 버퍼링하는 과정 없이, 광학 영역에서 즉각적인 연결이 가능하다.

이 기술의 장점은 여러 가지다. 첫째, 전력 소모가 ‘0’에 수렴한다. 빛의 경로를 바꾸는 것뿐이므로 데이터 전송 자체에 에너지가 들지 않는다. 둘째, 데이터 전송 속도나 프로토콜에 구애받지 않는다. 광학적 연결이므로 어떤 형태의 데이터든 동일한 효율로 전송된다. 셋째, 네트워크 토폴로지를 실시간으로 재구성할 수 있다. 구글은 모델 특성에 따라 네트워크 구조를 3차원 토러스나 뒤틀린 토러스로 즉각 변경한다. 수천 개 칩 간 통신 병목을 물리 계층에서 원천 제거하는 것이다.

확장성 차이는 숫자로 명확하게 드러난다. 엔비디아의 단일 일관성 도메인이 72개 GPU에 그치는 반면, 아이언우드 포드는 9,216개 칩이 단일 메모리 주소 공간과 동기화 도메인을 공유한다. 128배의 격차다. 조(兆) 단위 파라미터 모델 학습에서 칩 간 통신 오버헤드가 주요 병목인 점을 고려하면, 이는 단순한 성능 차이가 아닌 구조적 격차다.

메모리 대역폭은 TPU v7이 7.4 TB/s HBM3e, 엔비디아 B200이 8.0 TB/s HBM3e로 비슷한 수준이다. FP8 연산 성능도 각각 4.6 PFLOPS와 4.5 PFLOPS로 사실상 동등하다. 과거 GPU가 가졌던 절대적 연산 우위는 이제 사라졌다. 개별 칩 성능이 평준화된 상황에서, 시스템 레벨 확장성의 차이가 승부를 가르는 요소가 된 것이다.

데이터센터 운영에서 가장 중요한 지표는 총 소유 비용(TCO)과 전력 효율성이다. 아이언우드 TPU는 구글 초기 TPU v1 대비 30배, 전작 v5p 대비 2배 이상의 전력 효율을 달성했다.

엔비디아 B200은 칩당 1000W에서 1200W를 소모한다. 이 정도 발열량을 냉각하려면 데이터센터 전체의 전력 밀도를 재설계해야 한다. 기존 공랭식 시스템으로는 감당이 안 되고, 수랭식 냉각 인프라를 새로 구축해야 한다. 반면 TPU v7은 처음부터 구글 데이터센터의 수랭식 냉각 인프라에 맞춰 설계됐다. 칩당 전력 효율이 월등히 높다.

업계 추산에 따르면, 동일한 학습 워크로드를 수행할 때 TPU v7 기반 시스템은 엔비디아 H100/B100 기반 시스템 대비 30~50% 낮은 TCO를 제공한다. 이 차이가 가능한 이유는 구글의 비즈니스 모델에 있다. 구글은 하드웨어를 ‘판매’해서 마진을 남기는 게 아니라, 클라우드 ‘서비스’를 위한 원가 절감 도구로 활용한다. 엔비디아가 75~80%의 마진을 칩 가격에 포함시키는 반면, 구글은 마진을 제거한 원가로 자체 인프라를 구축한다. 동일한 연산 능력을 30~50% 저렴하게 제공할 수 있는 구조적 이유다.

CUDA 장벽의 크랙

지난 15년간 엔비디아의 진정한 해자는 칩 성능이 아니었다. CUDA 생태계였다. 전 세계 AI 개발자들이 15년간 쌓아온 코드, 라이브러리, 노하우가 모두 CUDA 위에서 작동한다. 텐서플로우, 파이토치, 수많은 딥러닝 프레임워크가 CUDA를 기반으로 최적화되어 있다. 다른 하드웨어로 옮기려면 이 모든 것을 처음부터 다시 작성해야 한다. 사실상 불가능한 일이다.

기존 CUDA 모델에서 개발자는 특정 GPU에 최적화된 ‘커널’을 호출한다. 행렬 곱셈, 컨볼루션, 활성화 함수 등 각각의 연산에 대해 엔비디아 엔지니어들이 수작업으로 최적화한 커널이 존재한다. 문제는 새로운 하드웨어가 나올 때마다 이 커널들을 다시 최적화해야 한다는 것이다. 막대한 비용이 발생하고, 이 비용은 결국 개발자와 기업의 몫이 된다.

구글은 이 장벽을 ‘더 나은 CUDA’를 만드는 방식으로 허물지 않았다. 하드웨어를 완전히 추상화해버리는 컴파일러 중심 접근법을 택했다. 그 결과물이 XLA(Accelerated Linear Algebra)다.

XLA는 신경망 전체의 연산 그래프를 분석해 여러 연산을 하나로 ‘융합’한다. 기존 방식을 예로 들어보자. 두 텐서를 더하고 그 결과에 상수를 곱하는 연산이 있다고 하자. 전통적인 방식에서는 먼저 메모리에서 두 텐서를 읽어 덧셈을 수행하고, 결과를 메모리에 저장한다. 그 다음 다시 메모리에서 결과를 읽어 곱셈을 수행하고, 최종 결과를 저장한다. 메모리 접근이 네 번 발생한다.

XLA는 이 과정을 분석해 단일 커널로 융합한다. 메모리에서 데이터를 한 번만 읽고, 덧셈과 곱셈을 연속으로 수행한 뒤, 최종 결과만 저장한다. 메모리 접근이 두 번으로 줄어든다. 메모리 대역폭이 AI 워크로드의 주요 병목인 점을 고려하면, 이 최적화의 효과는 막대하다.

더 중요한 건 하드웨어 불가지론적 접근이다. XLA는 작성된 코드를 CPU, GPU, TPU 등 어떤 백엔드에서도 실행 가능한 기계어로 컴파일한다. 개발자는 하드웨어 종속적인 코드를 작성할 필요가 없다. JAX로 작성된 고수준 코드는 하드웨어가 바뀌어도 자동으로 최적화된다.

텐서플로우가 프로덕션 엔지니어링에 초점을 맞췄다면, JAX는 수학적 순수함과 고성능을 결합해 최상위 연구자들의 표준 도구로 자리 잡았다. JAX는 넘파이의 직관적인 문법에 자동 미분과 XLA 컴파일을 결합한다.

JAX의 핵심 특징은 함수형 프로그래밍 패러다임을 강제한다는 점이다. 파이토치가 상태를 가지는 객체지향적 접근법을 쓰는 반면, JAX는 수학적으로 순수한 함수만 허용한다. 부작용이 없고, 같은 입력에는 항상 같은 출력이 나온다. 이런 특성 덕분에 수천 개 칩에 연산을 병렬 분산하기가 훨씬 쉽다.

pmap 함수 하나로 복잡한 분산 학습 코드를 대체할 수 있다는 점은 아이언우드 같은 초거대 스케일에서 결정적 강점이다. 개발자가 명시적으로 데이터 샤딩이나 그래디언트 동기화 코드를 작성할 필요가 없다. JAX가 자동으로 처리한다.

구글은 여기서 멈추지 않는다. StableHLO라는 중간 표현 계층을 오픈 소스로 공개하며 ‘반엔비디아 연합’을 구축하고 있다.

StableHLO는 다양한 프레임워크와 다양한 하드웨어 사이의 ‘공용어’ 역할을 한다. 파이토치나 JAX로 작성된 모델을 StableHLO로 변환하면, XLA를 지원하는 모든 칩에서 실행 가능하다. AWS 트레이니움, AMD MI300, 인텔 가우디 등 엔비디아의 경쟁자들이 모두 이 생태계에 합류할 수 있다.

이는 엔비디아 GPU를 ‘특수한 두뇌’에서 교체 가능한 ‘일반 계산기’로 격하시키려는 전략적 움직임이다. CUDA라는 해자가 무너지면, 엔비디아는 순수하게 칩 성능과 가격만으로 경쟁해야 한다. 75%의 마진을 유지하기 어려워진다.

제미나이 3.0: 모델 성능의 재정의

실리콘이 근육이라면 모델은 지능이다. 아무리 강력한 하드웨어를 갖춰도 그 위에서 돌아가는 모델이 경쟁력이 없다면 무의미하다. 제미나이 3.0 출시는 구글이 모델 성능 경쟁에서도 다시 주도권을 잡았다는 신호탄이다.

‘나노 바나나 프로’라는 독특한 이름은 LMArena 벤치마크 사이트에 익명으로 공개됐을 때 사용된 코드명이다. 정체가 공개되기 전부터 압도적 성능으로 커뮤니티를 달궜다. 이 모델은 제미나이 3.0 프로의 이미지 생성 버전을 지칭한다.

기존 AI 모델들은 텍스트 이해와 이미지 생성을 별도의 프로세스로 처리했다. 텍스트를 이해하는 언어 모델이 있고, 그 출력을 받아 이미지를 생성하는 확산 모델이 따로 있었다. 제미나이 3.0은 이 구조를 근본적으로 바꿨다. 네이티브 멀티모달 아키텍처로, 텍스트와 이미지를 동일한 표현 공간에서 처리한다.

벤치마크 성능은 숫자로 명확하게 드러난다. 제미나이 3.0 프로는 멀티모달 이해력을 측정하는 MMMU-Pro 벤치마크에서 81.0%를 기록했다. 경쟁자인 GPT-5.1의 76.0%를 5%포인트 차이로 따돌렸다. 벤치마크 특성상 이 정도 격차는 상당히 큰 차이다.

다국어 이해 능력에서도 91.8%를 기록하며 언어 장벽을 허물었다. 영어 중심으로 학습된 기존 모델들이 비영어권 언어에서 성능 저하를 보이던 것과 대조적이다. 한국어, 일본어, 중국어 등 아시아 언어에서도 영어와 유사한 수준의 이해력을 보여준다.

기존 생성형 AI의 고질적인 약점 중 하나가 이미지 내 텍스트 렌더링이었다. 간판, 라벨, UI 요소에 텍스트를 넣으면 외계어처럼 알아볼 수 없는 글자가 생성됐다. 확산 모델이 텍스트의 시각적 형태는 학습했지만, 실제 문자 체계를 이해하지 못했기 때문이다.

제미나이 3.0은 이 문제를 완벽히 극복했다. 고도화된 텍스트 인코더를 탑재해, 이미지 내 텍스트를 스튜디오 품질로 정확하게 구현한다. 광고 배너, 제품 라벨, 앱 UI 목업 등 실무에서 바로 사용할 수 있는 수준이다. 어도비 파이어플라이 등 전문가 툴과의 통합이 가속화되고 있는 배경이다.

오픈AI o1 시리즈가 선보인 ‘추론 시간 컴퓨팅’ 개념을 제미나이 3.0도 탑재했다. ‘동적 추론(Dynamic Reasoning)’ 기능이다.

기존 언어 모델은 질문을 받으면 즉시 답변을 생성했다. 빠르지만, 복잡한 문제에서 실수가 잦았다. 동적 추론이 활성화된 제미나이 3.0은 다르게 작동한다. 답변을 내놓기 전에 내부적으로 ‘사고 서명(Thinking Signature)’이라 불리는 암호화된 추론 과정을 거친다. 문제를 분해하고, 각 단계를 검증하고, 논리적 오류가 없는지 확인한 뒤에야 최종 답변을 출력한다.

구글은 개발자가 이 사고 과정의 깊이를 thinking_level 파라미터로 조절할 수 있게 했다. 빠른 응답이 필요한 챗봇 서비스에서는 낮은 레벨로, 깊은 논증이 필요한 법률이나 의료 서비스에서는 높은 레벨로 설정할 수 있다. 상황에 따라 유연하게 대응하는 것이다.

이는 AI가 직관적인 ‘시스템 1’ 사고에서 논리적이고 검증 가능한 ‘시스템 2’ 사고로 진화했다는 의미다. 대니얼 카너먼이 정의한 인간 사고의 두 체계를 AI가 모방하기 시작한 것이다.

안티그래비티

제미나이가 엔진이라면, 안티그래비티는 이 엔진을 탑재한 조종석이다. 구글이 발표한 이 ‘에이전트 중심 개발 플랫폼’은 기존 통합 개발 환경을 송두리째 대체하려 한다.

안티그래비티만 놓고 보면 그저 또 하나의 바이브 코딩 IDE가 나왔다고 치부할 수 있다. 커서(Cursor)도 있고, 깃허브 코파일럿도 있고, 윈드서프도 있다. AI가 코드를 생성해주는 도구는 이미 넘쳐난다. 하지만 제미나이 3.0 프로가 두뇌로 연결되고, 구글 클라우드와 자연스럽게 통합되는 미래까지 그려본다면 이야기가 완전히 달라진다. 거대한 전략의 마지막 퍼즐이 맞춰지는 것이다.

코드 생성을 일원화하는 제품이 ‘그저 그런’ 수준이 아니라 최고 성능까지 뽑아내고 있다. 개발자 커뮤니티에서 호평이 쏟아지고 있다. 2년 넘게 Cursor가 쥐고 있던 AI 코딩 도구의 왕좌를 안티그래비티가 그대로 차지할 수 있는 상황까지 열린 것이다.

거기에 안티그래비티의 에이전트는 UI/UX 테스트까지 수행한다. 직접 써보면 개발자의 입이 쩍 벌어질 정도의 성능이다. 에이전트가 화면을 캡처하고, UI 요소를 인식하고, 사용자 시나리오대로 인터랙션을 시뮬레이션한다. 버튼이 제대로 작동하는지, 폼 검증이 올바른지, 반응형 레이아웃이 깨지지 않는지를 자동으로 확인한다.

‘이런 걸 구글이 만들었다고?’라는 탄식이 나오는 순간을 두 눈으로 목격하게 된다. 과거 구글의 개발자 도구들은 강력하지만 복잡하고 사용하기 어렵다는 평가를 받았다. 안티그래비티는 이 편견을 깨버렸다.

안티그래비티는 코드 에디터와 분리된 ‘매니저’ 화면을 제공한다. 개발자는 여기서 AI 에이전트에게 고수준 작업을 지시한다. “인증 모듈을 OAuth 2.0으로 리팩토링하고, 유닛 테스트를 작성한 뒤, 스테이징 서버에서 검증하라.” 이런 식이다. 에이전트는 사용자가 지켜보지 않아도 백그라운드에서 계획을 수립하고, 코드를 수정하고, 터미널에서 디버깅하며, 필요하면 웹 문서를 검색한다.

결과물은 복잡한 로그가 아니라 이해하기 쉬운 ‘아티팩트’ 형태로 보고된다. 스크린샷, 변경 내역 요약, 구현 계획서 등이다. 개발자는 코드 한 줄 작성하지 않고도 기능 구현 과정을 파악하고 검증할 수 있다.

안티그래비티 같은 바이브 코딩 툴은 개발자의 역할을 근본적으로 바꾼다. ‘코드 작성자’에서 ‘아키텍트’ 혹은 ‘에이전트 지휘자’로의 전환이다. 타자 속도나 문법 숙련도보다 시스템을 설계하고 작업을 분해하는 능력이 중요해진다.

안티그래비티는 신뢰와 보안 측면도 고려됐다. 에이전트가 프로덕션 데이터베이스를 삭제하는 등의 사고를 막기 위해, 터미널 명령어에 대한 엄격한 허용/차단 리스트 기능을 제공한다. 기업 환경에서의 도입 장벽을 낮춘 것이다.

소프트웨어의 생성부터 운영, 소비하는 시장까지 모두 구글이 가져갈 수 있는 구도로 흘러가고 있다. 개발자가 안티그래비티로 코드를 생성하고, 구글 클라우드에서 실행하고, 구글 서비스로 배포한다. 전 과정이 구글 생태계 안에서 완결된다.

이 워크플로우에 익숙해진 개발자는 다른 플랫폼으로 이탈하기 어렵다. 수동 코딩으로 회귀해야 하기 때문이다. 한번 경험한 생산성 향상을 포기하기란 쉽지 않다. 구글 생태계에 대한 강력한 새로운 락인 효과다.

로봇 공학의 안드로이드 모멘트

구글 디지털 수직계열화의 마지막 퍼즐은 AI를 물리 세계로 확장하는 것이다. 보스턴 다이나믹스 전 CTO 아론 손더스의 영입은 이 전략의 결정적 증거다.

로봇 공학은 오랫동안 ‘모라벡의 역설’에 시달려왔다. 한스 모라벡이 1980년대에 제시한 이 역설은, 컴퓨터에게 고차원적 추론은 쉽지만 걷거나 물건을 집는 저차원적 운동 제어는 어렵다는 관찰이다. 체스 세계 챔피언을 이기는 건 가능해도, 방 안을 걸어다니며 장난감을 치우는 건 어렵다.

보스턴 다이나믹스는 이 역설의 물리적 측면을 해결했다. 아틀라스와 스팟은 경이로운 신체 능력을 보여줬다. 점프하고, 구르고, 문을 열고, 계단을 오른다. 하지만 범용적인 ‘두뇌’가 부재했다. 사전에 프로그래밍된 동작 시퀀스를 수행할 뿐, 새로운 상황에 적응하는 능력은 제한적이었다.

반면 딥마인드는 두뇌를 가졌지만 하드웨어 DNA가 없었다. 알파폴드로 단백질 구조를 예측하고, 알파고로 바둑을 정복했지만, 이 지능을 물리적 몸체에 담는 경험은 부족했다.

아틀라스와 스팟을 상용화한 경험이 있는 손더스가 구글 딥마인드 하드웨어 엔지니어링 부사장으로 합류했다. 그의 역할은 제미나이를 탑재할 물리적 그릇을 만드는 것이다.

이는 단순히 연구용 로봇을 만드는 게 아니다. ‘제미나이 컨트롤 허브’ 같은 상용화 가능한 하드웨어 모듈 개발을 시사한다. 시스템온칩(SoC)과 신경망처리장치(NPU)가 결합된 형태로, 어떤 로봇 섀시에나 장착해 지능을 부여할 수 있는 폼팩터다.

이 모듈을 장착하면 기존의 ‘멍청한’ 산업용 로봇이 갑자기 ‘똑똑해’진다. 자연어로 명령을 이해하고, 주변 환경을 인식하고, 예상치 못한 상황에 적응한다. 로봇 제조사 입장에서는 자체적으로 AI 역량을 개발하는 것보다 구글의 모듈을 구매하는 게 훨씬 경제적이다.

구글의 로봇 전략은 스마트폰 시장을 장악한 안드로이드 전략의 재현이다. 구글은 22종의 서로 다른 로봇에서 수집한 100만 개 이상의 동작 데이터를 통합한 ‘Open X-Embodiment’ 데이터셋을 구축했다. 로봇 팔, 휴머노이드, 사족 보행 로봇 등 다양한 형태의 로봇에서 수집한 데이터다.

이를 통해 학습된 RT-X 모델은 놀라운 범용성을 갖췄다. “바나나를 집어라”라는 명령을 내리면, 로봇 팔의 형태나 관절 구조가 달라도 이를 적절한 모터 토크 명령으로 변환할 수 있다. 마치 안드로이드가 수천 종의 서로 다른 스마트폰에서 동일하게 작동하는 것처럼, RT-X는 다양한 로봇 하드웨어에서 동일한 인터페이스를 제공한다.

목표는 명확하다. 테슬라 옵티머스나 피규어 AI가 하드웨어와 소프트웨어를 수직 통합한 ‘아이폰’ 노선을 걷는다면, 구글은 전 세계 모든 로봇 제조사에게 지능형 OS를 공급하는 ‘안드로이드’가 되겠다는 야망이다. 스마트폰 시장에서 안드로이드가 80% 이상의 점유율을 차지한 것처럼, 로봇 시장에서도 같은 전략이 통할 수 있다.

새 시대의 도래와 IT 종사자를 위한 제언

2025년 11월, 메타가 구글 TPU 인프라를 대규모로 임대하거나 도입하기 위해 협상 중이라는 보도가 나왔다. 그 직후 엔비디아 주가에서 하루 만에 약 1,500억~2,000억 달러 규모의 시가총액이 증발했다. 시장이 구글의 ‘독립 선언’이 갖는 파괴력을 인지하기 시작한 것이다.

이 사건이 시사하는 바는 두 가지다. 첫째, TPU의 범용성이 입증됐다. 과거 TPU는 텐서플로우와 구글 내부 워크로드에만 최적화된 ‘폐쇄적 도구’로 인식됐다. 하지만 파이토치를 주력으로 쓰는 메타가 TPU 도입을 고려한다는 건, TPU가 범용 AI 워크로드를 처리할 수 있는 ‘시장 표준급’ 하드웨어로 진화했다는 뜻이다.

둘째, 엔비디아의 가격 결정권이 약화됐다. 엔비디아의 75% 매출 총이익률은 대안 부재 덕분이었다. 강력한 대체재가 등장하면서, 빅테크 기업들은 엔비디아와의 가격 협상에서 우위를 점할 수 있게 됐다. 메타, 아마존, 마이크로소프트가 워크로드의 10~20%만 자체 칩이나 TPU로 옮겨도, 엔비디아의 초고속 성장 서사는 구조적 한계에 봉착한다.

이 변화는 IT 종사자들에게 명확한 메시지를 던진다.

인프라 엔지니어는 ‘박스를 사서 조립하는’ 시대가 끝났음을 인식해야 한다. TPU 포드 같은 추상화된 컴퓨팅 패브릭을 관리하고, JAX 기반 최적화를 이해하는 게 핵심 역량이 된다. 하드웨어 벤더에 종속되지 않는 유연한 인프라 설계 능력이 중요해진다.

소프트웨어 개발자는 코딩 능력 자체보다 ‘에이전트 지휘 능력’이 중요해진다. 안티그래비티 같은 도구를 통해 AI 에이전트에게 작업을 위임하고 검증하는 아키텍트적 역량을 길러야 한다. 타자 속도보다 시스템 설계와 문제 분해 능력이 차별화 요소가 된다.

CIO와 CTO는 엔비디아 일변도 전략이 재무적 리스크가 됐음을 직시해야 한다. JAX/StableHLO 같은 기술로 하드웨어 종속성을 탈피하고, 클라우드 비용을 최적화하는 멀티 벤더 전략이 필수적이다. 특정 벤더에 대한 과도한 의존은 협상력을 약화시키고 비용을 높인다.

AI와 로봇의 융합도 준비해야 한다. 생성형 AI가 공장과 물류 센터로 진입하고 있다. IT 부서는 이제 서버실을 넘어 물리적 로봇의 ‘두뇌’를 관리하고 보안을 책임져야 하는 새로운 도전에 직면하게 된다. OT(Operational Technology)와 IT의 경계가 허물어지고 있다.

바야흐로 ‘엔비디아의 여름’이 저물고, 구글이 주도하는 다극화된 AI의 시대가 도래하고 있다. 이것이 엔비디아의 몰락을 의미하지는 않는다. 여전히 엔비디아는 최고의 칩을 만들고, CUDA 생태계는 강력하다. 하지만 독점에서 경쟁으로, 단일 선택지에서 다양한 대안으로 시장 구조가 변하고 있다.

기술의 주권은 이제 가장 빠른 칩을 가진 자가 아니라, 시스템 전체를 통합하고 통제할 수 있는 자에게로 넘어가고 있다. 칩, 인프라, 모델, 개발도구, 그리고 로봇에 이르는 모든 계층을 장악함으로써 외부 의존성을 ‘0’으로 만드는 완벽한 디지털 수직계열화. 구글은 이 전략을 완성해가고 있다.

참고 자료

TPU v7 ‘아이언우드’ 발표 및 기술 세부 사항

제미나이 3.0 (Gemini 3.0) 공식 출시 및 성능

안티그래비티(AntiGravity) 개발 플랫폼 공개

로봇 학습 데이터셋(Open X-Embodiment) 및 RT-X 모델

보스턴 다이나믹스 CTO 영입 및 로봇 전략

엔비디아 주가 하락 및 메타(Meta) 협력 루머 분석