NVIDIA wird Tausende H200 Tensor Core GPUs in Japans AI Bridging Cloud Infrastructure 3.0 (ABCI 3.0) integrieren. HPE Cray XD-Systeme mit NVIDIA Quantum-2 InfiniBand-Netzwerken bieten die von ABCI geforderte Leistung und Skalierbarkeit.
Japan wird in der KI-Forschung und -Entwicklung bedeutende Fortschritte machen, indem es Tausende von NVIDIA H200 Tensor Core GPUs in seine AI Bridging Cloud Infrastructure 3.0 (ABCI 3.0) integriert. Diese vom National Institute of Advanced Industrial Science and Technology (AIST) angeführte Integration wird dazu führen, dass HPE Cray XD System ausgestattet mit NVIDIA Quantum-2 InfiniBand Vernetzung, die überlegene Leistung und Skalierbarkeit verspricht.
ABCI 3.0: Förderung der KI-Forschung und -Entwicklung
ABCI 3.0 ist die neueste Version von Japans groß angelegter Open AI Computing Infrastructure, die darauf ausgelegt ist, die KI-Forschung und -Entwicklung voranzutreiben. Diese Entwicklung unterstreicht Japans Bestreben, die KI-Fähigkeiten und die technologische Unabhängigkeit zu verbessern. Seit dem Start der ursprünglichen ABCI im August 2018 hat AIST umfangreiche Erfahrung in der Verwaltung groß angelegter KI-Infrastrukturen gesammelt. Aufbauend auf dieser Grundlage zielt das ABCI 3.0-Upgrade in Zusammenarbeit mit NVIDIA und HPE darauf ab, Japans generative KI-Forschungs- und Entwicklungskapazitäten zu verbessern.
Es kodifiziert Ihre Kultur, die Intelligenz Ihrer Gesellschaft, Ihren gesunden Menschenverstand, Ihre Geschichte – Sie besitzen Ihre eigenen Daten – Jensen Huang, Präsident und CEO von NVIDIA
Das ABCI 3.0-Projekt ist eine Gemeinschaftsarbeit von AIST, seiner Tochtergesellschaft AIST Solutions und Hewlett Packard Enterprise (HPE) als Systemintegrator. Diese Initiative wird vom japanischen Ministerium für Wirtschaft, Handel und Industrie (METI) über den Wirtschaftssicherheitsfonds unterstützt. Sie ist Teil der umfassenderen 1-Milliarden-Dollar-Initiative des METI zur Stärkung der Computerressourcen und Investition in Cloud-KI-Computing. NVIDIAs Beteiligung ist bedeutend: Das Unternehmen verspricht, die Forschung in den Bereichen generative KI, Robotik und Quantencomputing zu unterstützen und in KI-Startups zu investieren und gleichzeitig umfassenden Produktsupport, Schulungen und Ausbildung bereitzustellen.
NVIDIA engagiert sich in Japan
NVIDIAs Zusammenarbeit mit METI im Bereich KI-Forschung und -Bildung folgte einem Besuch von CEO Jensen Huang, der die entscheidende Rolle von „KI-Fabriken“ – Rechenzentren der nächsten Generation, die für intensive KI-Aufgaben konzipiert sind – bei der Umwandlung riesiger Datenmengen in verwertbare Informationen betonte. Huangs Engagement zur Unterstützung der KI-Ambitionen Japans steht im Einklang mit seiner Vision, dass KI-Fabriken zum Fundament moderner Volkswirtschaften weltweit werden.
Die KI-Fabrik wird zum Fundament moderner Volkswirtschaften auf der ganzen Welt – Jensen Huang, Präsident und CEO von NVIDIA
ABCI 3.0 wird mit seinem ultrahochdichten Rechenzentrum und seinem energieeffizienten Design eine robuste Infrastruktur für die Entwicklung von KI- und Big-Data-Anwendungen bieten. Das System, das voraussichtlich Ende des Jahres betriebsbereit sein wird und in Kashiwa bei Tokio untergebracht ist, wird hochmoderne KI-Forschungs- und Entwicklungsressourcen bieten.
Unübertroffene Leistung und Effizienz
Die ABCI 3.0-Einrichtung wird 6 AI-Exaflops Rechenkapazität liefern, ein Maß für AI-spezifische Leistung ohne Spärlichkeit, und 410 Petaflops mit doppelter Genauigkeit für allgemeine Rechenkapazität. Jeder Knoten wird über die Quantum-2 InfiniBand-Plattform verbunden sein und 200 GB/s bisectionielle Bandbreite bieten. Die NVIDIA-Technologie bildet den Kern dieser Initiative, wobei Hunderte von Knoten mit 8 NVLink-verbundenen H200-GPUs ausgestattet sind, was eine beispiellose Rechenleistung und Effizienz gewährleistet.
Die NVIDIA H200 GPU ist eine bahnbrechende Komponente und bietet über 140 Gigabyte (GB) HBM3e-Speicher bei 4.8 Terabyte pro Sekunde (TB/s). NVIDIA behauptet, die Energieeffizienz gegenüber der vorherigen Generation der ABCI-Plattform für KI-Workloads um das 15-fache verbessert zu haben. Dieser größere und schnellere Speicher beschleunigt generative KI und große Sprachmodelle (LLMs) erheblich und verbessert das wissenschaftliche Rechnen für High-Performance-Computing-Workloads (HPC) mit verbesserter Energieeffizienz und niedrigeren Gesamtbetriebskosten.
Quantum-2 InfiniBand Erweitertes Netzwerk
Durch die Integration von NVIDIA Quantum-2 InfiniBand mit In-Network-Computing-Funktionen können Netzwerkgeräte Datenberechnungen durchführen und so die CPU entlasten. Dies gewährleistet eine effiziente, schnelle und latenzarme Kommunikation, die für die Verwaltung intensiver KI-Workloads und großer Datensätze unerlässlich ist.
Die erstklassigen Rechen- und Datenverarbeitungskapazitäten von ABCI werden die gemeinsamen Forschungs- und Entwicklungsbemühungen im Bereich KI zwischen Industrie, Wissenschaft und Regierungen beschleunigen. Die beträchtlichen Investitionen von METI in dieses Projekt unterstreichen Japans strategische Vision, die KI-Entwicklungskapazitäten zu verbessern und den Einsatz generativer KI zu beschleunigen. Durch die Subventionierung der Entwicklung von KI-Supercomputern will Japan den Zeit- und Kostenaufwand für die Entwicklung von KI-Technologien der nächsten Generation reduzieren und sich so als Vorreiter in der globalen KI-Landschaft positionieren.
Beteiligen Sie sich an StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed