본문 바로가기
리뷰/전자기기 사용기

구글, 7세대 AI 칩 '아이언우드' 공개…엔비디아 H200 정조준

by 코스티COSTI 2025. 4. 16.

시작하며

구글이 2025년 Google Cloud Next에서 7세대 AI 전용 칩 '아이언우드(Ironwood)'를 공개하며 기술 업계의 이목을 끌고 있다. 그동안 엔비디아에 의존하던 대규모 AI 연산에서 벗어나, 자체 칩을 통한 클라우드 경쟁력 강화에 나섰다는 분석이다. 이번 발표는 단순한 칩 성능을 넘어, AI 모델 학습 및 추론 비용, 서비스 확장성, 에너지 효율 등 다양한 측면에서 의미 있는 신호를 보내고 있다.

 

1. 구글이 공개한 7세대 TPU '아이언우드'의 핵심 스펙

(1) 성능 요약

항목 아이언우드 (TPU V7P) 비교 대상 특이 사항
연산 성능 42.5 엑사플롭스 (FP8 기준) 슈퍼컴퓨터 엘 캐피탄 (FP64 기준) 24배 빠름 (단, 정밀도 차이 있음)
칩 개수 9,216개 연결 가능 DGX 시스템 대비 스케일 확장성 뛰어남
HBM 메모리 192GB (HBM3E 추정) H200 대비 24GB * 8 구성
정밀도 FP8 지원 BF16 → FP8로 진화 인퍼런스 효율성 향상
인터커넥트 1.2Tbps (ICI) NVIDIA NVLink 대비 칩 간 연결 속도 향상
냉각 방식 액체 냉각 공랭/기타 방식 대비 고열에 최적화된 설계

📌 아이언우드는 구글이 처음으로 인퍼런스 중심으로 설계한 TPU다.

(2) 설계 특징

  • 듀얼 다이 구조로, 반도체 물리적 한계를 극복
  • HBM3E 메모리를 양쪽에 8개씩 배치
  • 레티클 제한(858mm²)을 고려해, 이종 다이 접합 방식 채택
  • 전력 효율 향상을 위해 FP8 정밀도 채택 및 SparseCore 성능 향상

 

2. 엔비디아와의 직접 비교: 아이언우드 vs H200

(1) 칩 단위 비교

항목 아이언우드 NVIDIA H200
칩당 연산 성능 4,600 테라플롭스 (FP8) 약 4,000 테라플롭스 (FP8 기준)
메모리 용량 192GB 141GB
정밀도 지원 FP8, BF16 등 FP8, BF16 등
칩 구조 듀얼 다이 + 고속 인터커넥트 단일 다이 기반
가격 및 공급 구글 클라우드 전용 다양한 시장 공급

📌 아이언우드는 학습 + 추론 모두 커버 가능한 고성능 칩으로, 범용성은 떨어지지만 확장성과 성능은 우수하다.

(2) 시스템 단위 비교 (슈퍼컴퓨터 파드 기준)

  • 아이언우드 파드: 9,216개 칩 구성 → 42.5 엑사플롭스 (FP8 기준)
  • NVIDIA DGX SuperPOD: 최대 1 엑사플롭스 내외
  • 연산 효율 면에서 구글이 훨씬 유리, 다만 활용 범위는 구글 클라우드로 제한됨

 

3. 아이언우드가 바꾸는 AI 클라우드 시장 판도

(1) 서비스 비용 절감 가능성

  • 추론 요청이 폭증하는 AI 시대, 칩당 전력 효율과 비용이 핵심
  • 구글은 H200 대비 더 저렴한 비용 구조로 TPU 제공
  • 대규모 AI 서비스 기업 입장에선 클라우드 비용 절감이 매우 큰 장점

(2) 클라우드 독립성 강화

  • 그동안 대규모 AI 학습은 엔비디아 GPU가 사실상 독점
  • 구글은 TPU 자체 개발로 GPU 종속도 탈피, 장기적으로는 경쟁사와 차별화된 클라우드 전략 가능
  • 클라우드 상에서의 독점 구조를 깨트릴 수 있는 잠재적 변화의 신호

(3) 풀스택 AI 인프라 강화

  • 모델 개발(Gemini 시리즈) → 학습 → 추론 → 서비스까지 하드웨어부터 소프트웨어까지 완전 통합
  • 데이터센터 자체도 액체 냉각 등 전용 설계로 변경 중
  • AI 시대에 가장 필수적인 연산 리소스를 자체화했다는 점에서 강력한 시장 포지셔닝

 

4. TPU의 역사: 1세대부터 아이언우드까지

(1) 주요 발전 단계 요약

세대 주요 변화 도입 연도 비고
TPU v1 초창기 추론 전용 2015년 CNN 중심
TPU v2 학습+추론 지원 2017년 소프트웨어 통합
TPU v3 냉각 효율 개선 2018년 성능 2배 이상 증가
TPU v4 성능 최적화 2021년 Gemini 학습 기반
TPU v5P 대형 모델 최적화 2023년 SparseCore 탑재
TPU v7P (Ironwood) FP8, 듀얼 다이, 9,216 확장 2025년 최초 인퍼런스 전용 설계 기반

(2) 구글 TPU의 특장점

  • 트랜스포머 구조 등장 이전부터 커스텀 설계 시작
  • AI 추론 중심의 워크로드에 최적화
  • GPU 대비 추론 응답 시간 짧고 전력 소모 낮음

 

5. 앞으로의 전망: 구글 vs 엔비디아의 AI 칩 주도권 경쟁

(1) 구글의 전략적 이점

  • 하드웨어부터 소프트웨어까지 수직 통합
  • AI 모델 운영 비용 절감 → 클라우드 수익성 증대
  • 자체 사용을 전제로 한 고성능 칩 대량 생산 가능

(2) 엔비디아의 과제

  • 여전히 시장 대부분은 GPU 기반 생태계
  • 구글 TPU는 외부 판매가 아닌 내부 생태계에만 한정되므로 전체 시장 영향은 제한적
  • 다만 클라우드 점유율 상위 기업이 독립을 선언할 경우, 장기적으로 GPU 독점 구조에 균열

(3) 향후 변수

  • 다른 기업(메타, 아마존, 마이크로소프트)의 자체 칩 개발 여부
  • AI 모델 경량화 및 인트4, BF8 등 초저정밀 연산 도입 가속화
  • 반도체 패키징 기술 경쟁 (TSMC, 인텔, 삼성 등)도 큰 변수

 

마치며

구글이 9년 이상 준비해온 아이언우드는 단순한 고성능 AI 칩이 아니라, 미래 AI 생태계의 방향성을 보여주는 신호탄이다. 성능, 전력 효율, 확장성 등 모든 면에서 엔비디아에 강력한 도전장을 던졌고, 그 자체가 시장 지형에 영향을 줄 수 있는 수준이다. 단순한 기술 과시를 넘어, AI 클라우드 경쟁에서 구글만의 무기를 확보했다는 점에서 앞으로의 전개가 더 기대된다.

사업자 정보 표시
코스티(COSTI) | 김욱진 | 경기도 부천시 부흥로315번길 38, 루미아트 12층 1213호 (중동) | 사업자 등록번호 : 130-38-69303 | TEL : 010-4299-8999 | 통신판매신고번호 : 2018-경기부천-1290호 | 사이버몰의 이용약관 바로가기