구글, AI 추론 특화 가속기 ‘아이언우드’ 발표
“구글 역대 최고 성능과 확장성을 갖췄다”
9일(현지시각) 구글은 미국 라스베이거스에서 열린 ‘구글 클라우드 넥스트 2025’ 컨퍼런스에서 7세대 TPU(텐서처리장치) ‘아이언우드’를 공개했다. 회사는 아이언우드 최고 성능이 세계에서 제일 빠른 슈퍼컴퓨터 ‘엘 캐피탄’을 24배 이상 능가한다고 강조했다.
구글은 아이언우드의 핵심 특징으로 ▲성능 향상 ▲전력 효율성 증대 ▲고대역폭메모리(HBM) 용량·대역폭 증가 ▲칩 간 상호 연결(ICI) 대역폭 증가를 꼽았다.
아이언우드 연산 성능은 최대 4614 TFLOPS(테라플롭스)로 이전 세대 TPU ‘트릴리움’보다 5배 향상됐다. 전력 효율을 살펴보면 와트당 성능은 29.3 TFLOPS/W로 트릴리움의 2배다.
HBM 용량은 전작의 6배인 192GB로 늘어났다. HBM이 크면 대규모 AI 모델이나 데이터세트를 처리하기 용이하다. HBM 대역폭은 초당 7.2TB(테라바이트)로 전작의 4.5배다. HBM 대역폭이 클수록 최신 AI 모델처럼 메모리 사용량이 높은 작업을 원활히 처리할 수 있다.
ICI 대역폭은 전작의 1.5배인 초당 1.2Tb(테라비트)다. ICI 대역폭이 크면 칩 간 통신 속도가 빨라지며 분산 학습 효율이 오르고 대규모 추론이 용이하다.
구글은 “아이언우드는 대형언어모델(LLM), 전문가혼합(MoE), 추론 작업을 포함한 사고형 모델의 복잡한 연산과 통신 요구를 원활히 처리하도록 설계했다”며 “생성형 AI의 다음 단계에 필요한 막대한 연산과 통신 관련 요구사항을 충족할 것”이라고 밝혔다.

대다수의 AI 반도체 제조사들은 칩을 여러 개 합쳐 총 성능을 높이는 기술에 집중하고 있다. 더 이상 단일 칩만으로는 최신 AI 모델이 요구하는 막대한 연산량을 감당할 수 없기 때문이다. 구글도 마찬가지다. 구글은 아이언우드를 수랭 환경에서 최대 9216개까지 합칠 수 있도록 설계했다. 이 경우 총 성능은 약 42.5엑사플롭스(초당 42경5천조번 연산)로 엘 캐피탄(1.7엑사플롭스)보다 24배 이상 빠르다.
구글은 “아이언우드를 기점으로 AI 개발과 인프라에 중요한 전환점이 왔다”며 “사용자에게 실시간 정보를 제공하는 반응형 AI 모델에서, 틍찰력과 해석을 만들어내는 선제적 AI 모델로 바뀔 것”이라고 주장했다. 이어 “AI가 단편적인 정보를 제공하는 걸 넘어 사용자에게 필요한 정보를 먼저 검색, 생성해 제공하는 ‘추론 시대’가 다가왔다”고 덧붙였다.
아이언우드는 올해 안에 출시할 예정이다. 구글 클라우드 사용자는 AI 작업 규모에 따라 256칩 모드와 9216칩 모드 중 원하는 버전을 이용할 수 있다. 구글은 “아이언우드는 기하급수적으로 증가하는 연산 수요를 충족하는 동시에 높은 성능과 낮은 지연 시간으로 작업을 처리한다”며 “개발자와 구글 클라우드 고객이 일으킬 AI 혁신이 기대된다”고 밝혔다.
글. 바이라인네트워크
<이병찬 기자>bqudcks@byline.network