Startseite Unternehmen StorageReview Lab bricht den Weltrekord in der Pi-Rechnung mit über 202 Billionen Ziffern

StorageReview Lab bricht den Weltrekord in der Pi-Rechnung mit über 202 Billionen Ziffern

by Jordan Ranous

In einer erstaunlichen Demonstration rechnerischer Leistungsfähigkeit hat das StorageReview Lab Team einen aufeinanderfolgenden Weltrekord aufgestellt, indem es Pi auf unglaubliche 202,112,290,000,000 Stellen berechnet hat. Diese bemerkenswerte Leistung übertrifft den vorherigen Rekord von 105 Billionen Stellen, der ebenfalls vom Team gehalten wurde. Sie demonstriert die beispiellosen Fähigkeiten moderner Hochleistungsrechner und richtig konzipierter Standardhardwareplattformen.

In einer erstaunlichen Demonstration rechnerischer Leistungsfähigkeit hat das StorageReview Lab Team einen aufeinanderfolgenden Weltrekord aufgestellt, indem es Pi auf unglaubliche 202,112,290,000,000 Stellen berechnet hat. Diese bemerkenswerte Leistung übertrifft den vorherigen Rekord von 105 Billionen Stellen, der ebenfalls vom Team gehalten wurde. Sie demonstriert die beispiellosen Fähigkeiten moderner Hochleistungsrechner und richtig konzipierter Standardhardwareplattformen.

Beispiellose Rechenleistung

Das StorageReview Lab Team nutzte ein hochmodernes Setup, um dieses Kunststück zu erreichen. Unter Verwendung von Intel Xeon 8592+ CPUs und Solidigm P5336 Das Team führte 61.44 Tage lang fast ununterbrochen Berechnungen auf 85 TB NVMe-SSDs durch und verbrauchte dabei fast 1.5 Petabyte Speicherplatz auf 28 Solidigm-SSDs. Dieses bahnbrechende Projekt zeigt erhebliche Fortschritte sowohl bei der Rechenleistung als auch bei der Effizienz.

„Dieser neue Rekord unterstreicht das außergewöhnliche Potenzial der heutigen Hochleistungsrechner-Infrastruktur“, sagte Jordan Ranous, Systemarchitekt des StorageReview Lab Teams. „Mit diesem Meilenstein setzen wir nicht nur neue Maßstäbe in der Computermathematik, sondern ebnen auch den Weg für zukünftige Innovationen in verschiedenen wissenschaftlichen und technischen Disziplinen.“

Im März 2024 erzielte das StorageReview Lab Team einen Weltrekord bei der Berechnung von Pi zu 105 Billionen Stellen. Mithilfe eines Dual-Prozessor-AMD-EPYC-Systems mit 256 Kernen und fast einem Petabyte an Solidigm QLC SSDs bewältigte das Team erhebliche technische Herausforderungen, darunter Speicher- und Speicherbeschränkungen. Dieser Meilenstein demonstrierte die Leistungsfähigkeit moderner Hardware und lieferte wertvolle Erkenntnisse zur Optimierung von Hochleistungs-Computersystemen.

„Nicht nur, dass die Solidigm-Laufwerke und Dell PowerEdge R760 einwandfrei zusammenarbeiteten, auch die Tatsache, dass dieser neue Rekord fast ohne Eingriffe durchgeführt werden konnte, war nach den Gefahren unseres letzten Rekordversuchs eine willkommene Abwechslung“, sagte Kevin O'Brien, StorageReview Lab Director. „Nach dem, was wir beim letzten Testlauf auf 105 durchgemacht haben, bin ich froh, dass wir diese Plattform für den großen Rekord gewählt haben“, fuhr er fort. Weitere Einzelheiten zum vorherigen 105-Billionen-Stellen-Versuch und den Herausforderungen finden Sie im vollständigen Artikel HIER.

Informatik- und Mathematikunterricht

Als wir anfingen, nach unterhaltsamen Möglichkeiten zum Testen von SSDs mit großer Kapazität zu suchen, war die offensichtliche Antwort in unseren CPU- und Systemtests: y-cruncher. Bei der Nutzung des Swap-Speichers für umfangreiche Berechnungen beträgt der Speicherplatzbedarf ungefähr 4.7:1 für die Ziffern, sodass 100 Billionen Ziffern etwa 470 TiB Speicherplatz benötigen. Ohne zu sehr in die mathematischen und Informatik-Feinheiten einzutauchen, basiert y-cruncher, der Chudnovsky-Algorithmus, auf einer schnell konvergierenden Reihe, die aus der Theorie der Modulfunktionen und elliptischen Kurven abgeleitet wurde. Der Kern des Algorithmus basiert auf der folgenden unendlichen Reihe:

Die am häufigsten gestellte Frage zu unseren 100T- und 105T-Berechnungen war: „Okay, keine große Sache. Warum dauert das so lange und braucht so viel Speicher?“ Diese Frage war eine von vielen nervigen Fragen zu Open Source und Alex Yees Programmierkenntnissen. Lassen Sie uns einen Schritt zurückgehen und dies von der Systemebene aus betrachten.

Die Berechnung einer großen Anzahl von Ziffern von Pi, wie beispielsweise 100 Billionen, erfordert aufgrund der großen Rechenoperationen viel Speicherplatz. Die Herausforderung besteht vor allem in der Multiplikation großer Zahlen, die naturgemäß viel Speicher erfordert. Beispielsweise benötigen die besten Algorithmen zur Multiplikation von N-stelligen Zahlen etwa 4N Byte Speicher, von denen die meisten als Arbeitsspeicher dienen. Auf diesen Speicher muss während der Berechnung mehrfach zugegriffen werden, wodurch der Prozess zu einer Festplatten-E/A-intensiven Aufgabe wird und nicht zu einer CPU-gebundenen.

Die Chudnovsky-Formel, die häufig zum Berechnen vieler Ziffern von Pi verwendet wird, erfordert umfangreiche Rechenoperationen. Diese Multiplikations-, Divisions- und Quadrierungsoperationen werden oft auf große Multiplikationen reduziert. In der Vergangenheit verwendeten Supercomputer AGM-Algorithmen, die zwar langsamer waren, aber einfacher zu implementieren waren und von der rohen Leistung zahlreicher Maschinen profitierten. Moderne Fortschritte haben den Engpass jedoch von der Rechenleistung auf die Speicherzugriffsgeschwindigkeit verlagert.

Recheneinheiten (ALUs) und Gleitkommaeinheiten (FPUs) verarbeiten diese großen Multiplikationszahlen ähnlich wie manuelle Multiplikationen auf Papier und zerlegen sie in kleinere, handhabbare Operationen. Früher waren Pi-Berechnungen rechengebunden, aber die heutige Rechenleistung übertrifft die Speicherzugriffsgeschwindigkeiten, sodass Speicher und Zuverlässigkeit die entscheidenden Faktoren für das Aufstellen von Pi-Rekorden sind. So konnten wir beispielsweise zwischen unserer 128-Core-Intel-Maschine und einer 256-Core-AMD Bergamo nur geringe Leistungsunterschiede feststellen; der Fokus lag auf der Festplatten-E/A-Effizienz.

Solidigm SSDs spielen bei diesen Berechnungen eine entscheidende Rolle, nicht aufgrund ihrer inhärenten Geschwindigkeit, sondern aufgrund ihrer außergewöhnlichen Speicherdichte. NVMe-Laufwerke für Verbraucher können bis zu 4 TB in einem kleinen Volumen speichern, während Enterprise-SSDs diese Chips für noch mehr Kapazität stapeln. Obwohl QLC NAND langsamer sein kann als andere Arten von Flash-Speicher, liefert die Parallelität dieser dichten SSDs eine höhere Gesamtbandbreite, was sie ideal für groß angelegte Pi-Berechnungen macht.

Solidigm QLC NVMe SSDs machen den Wahnsinn möglich

Okay, wenn Sie noch wach sind und mir folgen, müssen Sie nur wissen, dass Computer beim Berechnen von Zahlen, die zu groß sind, um in den Speicher zu passen, Softwarealgorithmen für Multipräzisionsarithmetik verwenden müssen. Diese Algorithmen zerlegen die großen Zahlen in handhabbare Teile und führen die Division mithilfe spezieller Techniken durch. Hier kommt der Solidigm P5336 Es kommen 61.44 TB NVMe-SSDs herein. y-cruncher nimmt diese verwaltbaren Brocken, sammelt sie zuerst im Systemspeicher und lagert sie dann in einen Scratch-Laufwerkspeicher aus.

Denken Sie daran, dass wir für den Tausch etwa 4.7:1 benötigen, da jeder Teil dieser beängstigenden Formel dort oben durch viele, viele Bits dargestellt werden muss.

y-cruncher verfügt über einen integrierten Schätzer für die benötigte Laufwerksmenge (immer noch als „Disk“ bezeichnet *hüstel*), der sich bei diesem und früheren Durchläufen als absolut genau herausgestellt hat.

Man könnte zwar ein paar Festplatten oder Objektspeicher verwenden, aber die reine Größe ist nur ein Teil einer sehr komplexen Gleichung, wie wir herausgefunden haben. in unserer ersten Runde. Die Möglichkeit, ausreichend großen und schnellen Speicher in der Nähe des Rechengeräts zu haben, ist angesichts des Aufschwungs der KI in diesen Tagen ein wiederkehrendes Thema bei StorageReview. Die Leistung des Swap-Speichers ist der größte Engpass bei dieser Berechnung. Direkt angeschlossenes NVMe bietet die höchste verfügbare Leistung, und obwohl einige Optionen möglicherweise den schnellsten Durchsatz pro Gerät haben, war unser großes, sehr dichtes QLC-Array insgesamt dieser Aufgabe mehr als gewachsen.

Verbraucherlaufwerk und CPU-Leistung. NICHT das Aufzeichnungssystem

y-cruncher verfügt über einen integrierten Benchmark, mit dem Sie alle Hebel in die Hand nehmen und die Knöpfe anpassen können, um die besten Leistungseinstellungen für Ihr Festplatten-Array zu finden. Dies ist äußerst wichtig. Der Screenshot oben zeigt, dass der Benchmark Feedback für dieses Verbrauchersystem liefert, mit Messwerten darüber, wie schnell die CPU die Aufgaben bewältigen kann und wie die SSD-Leistung ist.

Alex hat teilweise umfangreiche Dokumentation verfügbar, aber um es auf den Punkt zu bringen: Wir haben durch wochenlange Tests herausgefunden, dass es am besten ist, y-cruncher direkt mit den Laufwerken interagieren zu lassen. Wir haben Netzwerkziele, Laufwerke hinter einer SAS-RAID-Karte, NVMe-RAID-Karten und iSCSI-Ziele getestet. Wenn wir y-cruncher die Kontrolle über die Hardware geben, ist die Leistung himmelhoch. iSCSI scheint auch akzeptabel, aber wir haben das nur für die Ausgabedatei getestet, die für diese Interaktion „Direct IO“ nutzen kann. Der Swap-Modus-RAID-Code muss relativ gut durchdacht sein, und wir können aus unseren Tests und Gesprächen mit dem Entwickler schließen, dass er auf niedriger Ebene mit den Laufwerken funktioniert.

Die Solidigm-Laufwerke mit 61.44 TB erweisen sich zunehmend als die beste Antwort auf viele Probleme in diesem Bereich. Beim Ausführen des Benchmarks auf unserem System sehen wir, dass die Laufwerke sowohl beim Lesen als auch beim Schreiben die Spezifikationen erfüllen. Wir haben die Intel-CPUs speziell ausgewählt, um so nahe wie möglich am optimalen Verhältnis von Laufwerk zu Rechenleistung von 2:1 zu sein. Dies ist das optimale Verhältnis, sodass Sie keine Zeit mit der CPU verschwenden, während Sie darauf warten, dass die Laufwerke funktionieren. Da die Laufwerkstechnologie immer schneller wird, können wir umfangreichere und schnellere Läufe durchführen, indem wir CPUs mit einer höheren Kernanzahl auswählen.

„Benutzerdefinierter“ Dell PowerEdge R760 Server

Wie das Sprichwort sagt: Aller guten Dinge sind drei. Dies ist nicht unser erster Rodeo mit Rekorden mit Pi; wir haben aus unseren ersten beiden Iterationen gelernt, um die beste Pi-Plattform zu bauen. Unser erster Build nutzte einen 2U-Server mit 16 NVMe-Schächten und drei internen SSD-Schlitten. Mit 30.72 TB Solidigm P5316 SSDs enthielten wir den Swap-Speicher für y-cruncher, aber wir mussten einen HDD-basierten Speicherserver für die Ausgabedatei nutzen. Das war nicht optimal, insbesondere am Ende der Schreibphase. Unsere 2. Plattform nutzte denselben Server mit einem angeschlossenen externen NVMe JBOF, was uns einen zusätzlichen NVMe-Schacht gab – allerdings auf Kosten empfindlicher Verkabelung und unausgewogener Leistung. Der Nachteil beider Plattformen war, dass wir während des gesamten y-cruncher-Laufs auf externe Hardware angewiesen waren, was zu Kosten für zusätzlichen Stromverbrauch und zusätzliche Fehlerquellen führte.

Für diesen Lauf wollten wir einen einzigen Server mit ausschließlich direkter NVMe-Technologie nutzen und unter einem Blechdach genügend Platz für unseren Y-Cruncher-Auslagerungsspeicher und Ausgabespeicher haben. Hier kommt der Dell PowerEdge R760 mit der 24-Bay NVMe Direct Drives-Backplane ins Spiel. Diese Plattform nutzt einen internen PCIe-Switch, damit alle NVMe-Laufwerke gleichzeitig mit dem Server kommunizieren können, ohne dass zusätzliche Hardware oder RAID-Geräte erforderlich sind. Anschließend haben wir in unserer Laborumgebung eine PCIe-Riser-Konfiguration aus mehreren R760s zusammengestellt, wodurch wir auf der Rückseite vier PCIe-Steckplätze für zusätzliche U.2-montierte NVMe-SSDs erhielten. Ein Bonus war, dass wir größere Kühlkörper von einem anderen R760 abnehmen konnten, um so viel Turbo-Boost-Spielraum wie möglich zu haben. Die direkte Flüssigkeitskühlung kam einen Monat zu spät in unser Labor, um in diesem Lauf implementiert zu werden.

„Die Berechnung von Pi auf über 202 Billionen Stellen durch das StorageReview Lab Team, erreicht mit 5th Gen Intel Xeon Prozessor, unterstreicht die Leistung und Effizienz dieser CPUs. Durch die Nutzung der erhöhten Kernanzahl und der erweiterten Leistungsmerkmale des 5th „Mit dem Xeon-Prozessor der 1. Generation setzt dieser Meilenstein einen neuen Maßstab in der Computermathematik und ebnet weiterhin den Weg für Innovationen in verschiedenen wissenschaftlichen und technischen Workloads“, sagte Suzi Jewett, Intel General Manager für 5th Intel Xeon Prozessorprodukte der 3. Generation

Obwohl man technisch gesehen eine Dell-Konfiguration genau wie die in diesem Lauf verwendete bestellen könnte, war sie nichts, was sie herumliegen hatten und das zusammengestückelt werden musste. (Vielleicht wird Michael eine limitierte Auflage „Pi“-Charge von R760s mit genau dieser Konfiguration, Sonderlackierung und dem SR-Logo herausbringen.)

Auch die Größe des Netzteils war für diesen Lauf entscheidend. Während die meisten sofort denken würden, dass die CPUs den größten Teil des Stroms verbrauchen, haben 28 NVMe-SSDs unter einem Dach erhebliche Auswirkungen auf den Stromverbrauch. Unser Build nutzte die 2400-W-Netzteile, die, wie sich herausstellte, kaum funktionierten. Wir hatten einige Momente mit nahezu kritischem Stromverbrauch, in denen wir zu wenig Strom gehabt hätten, wenn das System eine Stromversorgungsverbindung verloren hätte. Dies war schon früh der Fall; der Stromverbrauch schoss in die Höhe, während die CPU-Lasten ihren Höhepunkt erreichten, und das System erhöhte die E/A-Aktivität auf allen SSDs. Wenn wir dies noch einmal tun müssten, wären die 2800-W-Modelle vorzuziehen gewesen.

Leistungsdaten

Technische Highlights

  • Gesamtzahl der Ziffern berechnet: 202,112,290,000,000
  • Verwendete Hardware: Dell PowerEdge R760 mit 2x Intel Xeon 8592+ CPUs, 1TB DDR5 DRAM, 28x Solidigm 61.44TB P5336
  • Software und Algorithmen: y-cruncher v0.8.3.9532-d2, Chudnovsky
  • Datenspeicher: 3.76 PB geschrieben pro Laufwerk, 82.7 PB über die 22 Festplatten für das Swap-Array
  • Berechnungsdauer: 100.673 Tage

y-cruncher Telemetrie

  • Logisch größter Kontrollpunkt: 305,175,690,291,376 (278 TiB)
  • Logische Spitzenauslastung der Festplatte: 1,053,227,481,637,440 (958 TiB)
  • Gelesene logische Datenträgerbytes: 102,614,191,450,271,272 (91.1 PiB)
  • Geschriebene logische Datenträgerbytes: 88,784,496,475,376,328 (78.9 PiB)
  • Startdatum: Di., 6. Feb. 16, 09:07:2024 Uhr
  • Enddatum: Montag, 20. Mai 05, 43:16:2024 Uhr
  • Pi: 7,272,017.696 Sekunden, 84.167 Tage
  • Gesamte Rechenzeit: 8,698,188.428 Sekunden, 100.673 Tage
  • Wandzeit von Anfang bis Ende: 8,944,449.095 Sekunden, 103.524 Tage

Die größte bekannte Ziffer von Pi ist 2 an der Position 202,112,290,000,000 (zweihundertzwei Billionen einhundertzwölf Milliarden zweihundertneunzig Millionen).

Allgemeine Implikationen

Während die Berechnung von Pi auf eine so große Zahl von Ziffern wie eine abstrakte Herausforderung erscheinen mag, haben die praktischen Anwendungen und Techniken, die im Rahmen dieses Projekts entwickelt wurden, weitreichende Auswirkungen. Diese Fortschritte können verschiedene Rechenaufgaben verbessern, von der Kryptographie bis hin zu komplexen Simulationen in Physik und Ingenieurwesen.

Die jüngste 202-Billionen-stellige Pi-Berechnung unterstreicht die erheblichen Fortschritte bei der Speicherdichte und den Gesamtbetriebskosten (TCO). Unser Setup erreichte erstaunliche 1.720 Petabyte NVMe-SSD-Speicher in einem einzigen 2U-Gehäuse. Diese Dichte stellt einen großen Sprung nach vorne bei den Datenspeicherkapazitäten dar, insbesondere wenn man bedenkt, dass der Gesamtstromverbrauch bei voller CPU- und Laufwerkslast nur 2.4 kW betrug.

Diese Energieeffizienz steht im Gegensatz zu herkömmlichen HPC-Aufzeichnungsläufen, die deutlich mehr Strom verbrauchen und übermäßige Wärme erzeugen. Der Stromverbrauch steigt exponentiell, wenn Sie zusätzliche Knoten für Scale-Out-Speichersysteme berücksichtigen, wenn Sie gemeinsam genutzten Speicher mit geringer Kapazität im Vergleich zu lokalem Speicher mit hoher Dichte erweitern müssen. Das Wärmemanagement ist von entscheidender Bedeutung, insbesondere für kleinere Rechenzentren und Serverschränke. Die Kühlung herkömmlicher HPC-Aufzeichnungssysteme ist keine Kleinigkeit und erfordert Rechenzentrumskühler, die mehr Strom verbrauchen können als die Geräte allein. Durch die Minimierung des Stromverbrauchs und der Wärmeabgabe bietet unser Setup eine nachhaltigere und handlichere Lösung für kleine Unternehmen. Als Bonus wurde der Großteil unseres Laufs mit Frischluftkühlung durchgeführt.

Um dies ins rechte Licht zu rücken, stellen Sie sich die Herausforderungen vor, denen diejenigen gegenüberstehen, die mit vernetztem Shared Storage und nicht optimierten Plattformen arbeiten. Diese Setups würden einen oder mehrere Rechenzentrumskühler erfordern, um die Temperaturen unter Kontrolle zu halten. In diesen Umgebungen bedeutet jedes eingesparte Watt weniger Kühlungsbedarf und niedrigere Betriebskosten, was unseren hochdichten, stromsparenden Ansatz zur idealen Wahl macht. Ein weiterer entscheidender Vorteil beim Betrieb einer schlanken und effizienten Plattform für einen Rekordlauf ist der Schutz des gesamten Setups mit Batterie-Backup-Hardware. Wie bereits erwähnt, würden Sie Batterie-Backups für Rechenserver, Switches, Speicherserver, Kühler und Wasserpumpen benötigen, um sie einen Großteil des Jahres über am Laufen zu halten.

Insgesamt veranschaulicht diese Rekordleistung das Potenzial aktueller HPC-Technologien und unterstreicht die Bedeutung von Energieeffizienz und Wärmemanagement in modernen Computerumgebungen.

Genauigkeit sicherstellen: Die Bailey-Borwein-Plouffe-Formel

Die Berechnung von Pi auf 202 Billionen Stellen ist eine monumentale Aufgabe, aber die Genauigkeit dieser Stellen ist ebenso wichtig. Hier kommt die Bailey-Borwein-Plouffe-Formel (BBP) ins Spiel.

Mit der BBP-Formel können wir die Binärziffern von Pi im Hexadezimalformat (Basis 16) überprüfen, ohne alle vorangehenden Ziffern berechnen zu müssen. Dies ist insbesondere für die Gegenprüfung von Abschnitten unserer umfangreichen Berechnung nützlich.

Zwei der Verifizierungsberechnungen.

Hier ist eine vereinfachte Erklärung:

  1. Hexadezimale Ausgabe: Wir generieren die Ziffern von Pi zunächst hexadezimal während der Hauptberechnung. Die BBP-Formel kann jede beliebige einzelne Ziffer von Pi in Basis 16 direkt berechnen. Sie können dies mit anderen Programmen wie GPUPI tun, aber y-cruncher hat auch eine eingebaute Funktion. Wenn Sie einen Open-Source-Ansatz bevorzugen, Die Formeln sind bekannt.
  2. Kreuzverifizierung: Wir können diese Ergebnisse mit unserer Hauptberechnung vergleichen, indem wir bestimmte Positionen der hexadezimalen Ziffern von Pi unabhängig mit der BBP-Formel berechnen. Wenn sie übereinstimmen, ist das ein starkes Indiz dafür, dass unsere gesamte Sequenz korrekt ist. Wir haben diese Gegenprüfung über sechs Mal durchgeführt; hier sind zwei davon.

Wenn unsere primäre Berechnung beispielsweise an verschiedenen Stellen dieselben hexadezimalen Ziffern ergibt wie die aus der BBP-Formel, können wir die Genauigkeit unserer Ziffern mit Sicherheit behaupten. Diese Methode ist nicht nur theoretisch; sie wurde in der Praxis bei allen wichtigen Pi-Berechnungen angewendet und gewährleistet Robustheit und Zuverlässigkeit der Ergebnisse.

R = Offizielles Laufergebnis, V = Verifizierungsergebnis

  • R: f3f7e2296 822ac6a8c9 7843dacfbc 1eeb4a5893 37088*
  • V: *3f7e2296 822ac6a8c9 7843dacfbc 1eeb4a5893 370888

Aufmerksame Leser werden feststellen, dass die Überprüfungen aus den Screenshots und dem obigen Vergleich etwas verschoben sind (*). Obwohl dies nicht notwendig war, da das Hex am Ende betroffen wäre, haben wir auch einige andere Stellen (wie 100 Billionen und 105 Billionen Ziffern) stichprobenartig überprüft, um sicherzustellen, dass der Lauf übereinstimmt. Obwohl es theoretisch möglich, jede Dezimalstelle von Pi zu berechnen Bei Verwendung einer ähnlichen Methode ist unklar, ob dies eine Genauigkeit von mehr als 100 Millionen Ziffern hätte oder ob es überhaupt rechnerisch effizient wäre, dies zu erreichen, anstatt die Chudnovsky-Mathematik anzuwenden und alle Ziffern zu erhalten. (Wenn Eric Weisstein dies sieht, melden Sie sich; ich würde es gerne versuchen.)

Durch die Integration dieses mathematischen Querprüfprozesses können wir die Integrität unserer rekordverdächtigen Pi-Berechnung mit 202 Billionen Ziffern sicherstellen und so unsere Rechenpräzision und unser Engagement für wissenschaftliche Genauigkeit unter Beweis stellen.

Die Straße entlang

Die Leistung des StorageReview Lab Teams, Pi auf über 202 Billionen Stellen zu berechnen, ist ein Beweis für die bemerkenswerten Fortschritte in der Hochleistungsrechner- und Speichertechnologie. Diese rekordverdächtige Leistung unter Verwendung von Intel Xeon 8592+ CPUs in unseren Dell PowerEdge R760 und Solidigm 61.44TB QLC NVMe SSDs unterstreicht die Fähigkeiten moderner Hardware, komplexe und ressourcenintensive Aufgaben mit beispielloser Effizienz zu bewältigen. Der Erfolg des Projekts zeigt nicht nur die Leistungsfähigkeit des StorageReview-Teams, sondern unterstreicht auch das Potenzial der heutigen HPC-Infrastruktur, die Grenzen der Computermathematik und anderer wissenschaftlicher Disziplinen zu erweitern.

„Dieser neue Pi-Weltrekord ist eine aufregende Leistung, da diese Rechenlast so intensiv ist wie viele der KI-Workloads, die wir heute sehen. Solidigm D5-P5336 61.44 TB SSDs haben wieder einmal bewiesen, dass die leistungsstarke Kombination aus ultrahoher Kapazität, PCIe 4-Leseleistung und hohen geschriebenen Petabytes einigen der anspruchsvollsten Anwendungen von heute standhalten und sie entfesseln kann“, sagte Greg Matson, VP, Data Center Storage Group von Solidigm. „Wir freuen uns sehr über die Möglichkeit, gemeinsam mit unseren Partnern bei Dell Technologies und den Experten von StorageReview einen weiteren Rekordversuch zur Berechnung von Pi zu ermöglichen.“

Dieses Unterfangen bietet auch wertvolle Einblicke in die Optimierung der Speicherdichte und Energieeffizienz und ebnet den Weg für nachhaltigere und besser verwaltbare Computerlösungen. Während wir die Möglichkeiten von HPC weiter erforschen, werden die Erkenntnisse aus diesem Projekt zweifellos zukünftige Innovationen vorantreiben und verschiedenen Bereichen, von der Kryptographie bis zum Ingenieurwesen, zugutekommen. Die Leistung des StorageReview Lab Teams ist ein Meilenstein in der Computergeschichte und zeigt, dass wir mit der richtigen Kombination aus Hardware und Fachwissen neue Höhen wissenschaftlicher Entdeckungen und technologischer Fortschritte erreichen können.

Anerkennungen

Das StorageReview Lab Team dankt Solidigm, Dell Technologies, Intel und y-cruncher Alex Yee für ihre unermüdliche Unterstützung und Beiträge zu diesem Projekt.

 

Beteiligen Sie sich an StorageReview

Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed