Google avslöjar Ironwood TPU, dess mest kraftfulla AI-accelerator hittills, som ger enorma förbättringar i slutledningsprestanda och effektivitet.
Förra veckan drog Google tillbaka gardinen för sin senaste anpassade AI-accelerator, Ironwood TPU, som visar upp en betydande prestandaförbättring för den allt mer krävande AI-världen. Ironwood tillkännagavs på Google Cloud Next 25 och är den sjunde generationen av Googles TPU:er, speciellt konstruerade för att hantera moderna AI-arbetsbelastningar, särskilt i slutledningsriket.
Förstå TPU:er
Innan du dyker in i Ironwood är det bra att förstå vad TPU är. Tensor Processing Units är specialiserade chips som utvecklats av Google specifikt för att accelerera maskininlärningsarbetsbelastningar. Till skillnad från processorer för allmänna ändamål eller till och med GPU:er, som är optimerade för parallell bearbetning, initialt för grafik, är TPU:er optimerade för matris- och tensoroperationer i hjärtat av neurala nätverk. Historiskt sett har Google erbjudit olika TPU-versioner, som ofta skiljer mellan 'e'-serier (fokuserade på effektivitet och slutledning, kör förtränade modeller) och 'p'-serier (fokuserade på rå prestanda för att träna stora modeller).
Vi presenterar Ironwood
Den nya Ironwood TPU är Googles hittills mest ambitiösa AI-accelerator. Det är företagets första TPU speciellt designad för kraven från slutledningstunga "resonemangsmodeller". Ironwood ger avsevärda förbättringar över alla nyckelprestandamått jämfört med sina föregångare, inklusive:
TPU v5e | TPU v5p | TPU v6e | TPU v7e | |
BF16 Beräkna | 197 TFLOPs | 459 TFLOPs | 918 TFLOPs | 2.3 PFLOPs* |
INT8/FP8 Compute | 394 TOPP/TFLOP* | 918 TOPP/TFLOP* | 1836 TOP/TFLOP | 4.6 POP/PFLOP |
HBM bandbredd | 0.8 TB / s | 2.8 TB / s | 1.6 TB / s | 7.4 TB / s |
HBM Kapacitet | 16 GB | 95 GB | 32 GB | 192 GB |
Inter Chip Interconnect bandbredd (per länk) | 400 Gbps | 800 Gbps | 800 Gbps | 1200 Gbps |
Sammankopplingstopologi | 2D Torus | 3D Torus | 2D Torus | 3D Torus |
TPU Pod Storlek | 256 | 8960 | 256 | 9216 |
Reservkärnor | Nej | Nej | Ja | Ja |
Obs: Siffror markerade med "*" är inofficiella beräknade tal.
Framför allt har Ironwood:
- Massiv beräkningskraft: Varje chip levererar 4.6 petaFLOPS FP8-prestanda, vilket sätter det i samma prestandaklass som NVIDIAs Blackwell B200
- Ökad minneskapacitet: 192 GB High Bandwidth Memory (HBM) per chip
- Dramatiskt förbättrad minnesbandbredd: 7.37 TB/s per chip, 4.5 gånger mer än Trillium, vilket möjliggör snabbare dataåtkomst för minnesbegränsad AI-inferens
- Förbättrade sammankopplingsmöjligheter: 1.2 TBps dubbelriktad bandbredd, en 1.5x förbättring jämfört med Trillium, vilket underlättar effektivare kommunikation mellan chips
Spekulationer: Är Ironwood the Missing v6p?
Intressant nog verkar Google ha hoppat över den förväntade TPU v6p-generationen och gått direkt till att släppa v7e Ironwood. Detta tyder på att detta chip ursprungligen kan ha varit tänkt som v6p-träningschipset. Men på grund av snabbt växande modellstorlekar och behovet av att konkurrera med erbjudanden som NVIDIAs GB200 NVL72, flyttade Google sannolikt den till v7e Ironwood. Den massiva 9216 TPU-podstorleken och användningen av 3D Torus-interconnect i vad som betecknas som ett "e"-seriechip (vanligtvis den mer ekonomiska varianten) stöder starkt denna teori.
Vägen framför
Google har meddelat att Ironwood TPU:er kommer att finnas tillgängliga senare i år via Google Cloud. Tekniken driver redan några av Googles mest avancerade AI-system, inklusive Gemini 2.5 och AlphaFold.
När dessa kraftfulla nya acceleratorer blir tillgängliga för utvecklare och forskare, kommer de sannolikt att möjliggöra genombrott inom AI-kapacitet, särskilt för storskaliga slutledningsarbetsbelastningar som kräver både massiv beräkningskraft och sofistikerad resonemangskapacitet.
Engagera dig med StorageReview
Nyhetsbrev | Youtube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Rssflöde