Startseite UnternehmenAI Von SLI zu NVLink: Die Entwicklung von Gaming- und Multi-GPU-Technologien und ihr Einfluss auf die KI

Von SLI zu NVLink: Die Entwicklung von Gaming- und Multi-GPU-Technologien und ihr Einfluss auf die KI

by Jordan Ranous
HP Z8 Fury G5 CPU-Kühler

Die Landschaft der Grafikprozessoren (GPUs) hat in den letzten zwei Jahrzehnten seismische Veränderungen erlebt, erst kürzlich mit dem Aufschwung der KI. Ein wesentlicher Teil dieser Entwicklung war die Entwicklung von Technologien, die die Zusammenarbeit mehrerer GPUs ermöglichen. NVIDIA, ein Spitzenreiter im GPU-Bereich, stand mit zwei Schlüsseltechnologien an der Spitze dieser Revolution: Scalable Link Interface (SLI) und NVIDIA NV-Link. Dieser Artikel zeichnet den Weg von SLI zu NVLink nach und zeigt, wie sich NVIDIA kontinuierlich an die sich ständig ändernden Computeranforderungen anpasst.

Die Landschaft der Grafikprozessoren (GPUs) hat in den letzten zwei Jahrzehnten seismische Veränderungen erlebt, erst kürzlich mit dem Aufschwung der KI. Ein wesentlicher Teil dieser Entwicklung war die Entwicklung von Technologien, die die Zusammenarbeit mehrerer GPUs ermöglichen. NVIDIA, ein Spitzenreiter im GPU-Bereich, stand mit zwei Schlüsseltechnologien an der Spitze dieser Revolution: Scalable Link Interface (SLI) und NVIDIA NV-Link. Dieser Artikel zeichnet den Weg von SLI zu NVLink nach und zeigt, wie sich NVIDIA kontinuierlich an die sich ständig ändernden Computeranforderungen anpasst.

Der Beginn von SLI

NVIDIA führte SLI in den frühen 2000er Jahren ein, das ursprünglich von 3dfx für die Voodoo2-Kartenreihe entwickelt wurde und NVIDIAs Antwort auf die wachsende Nachfrage nach höherer Grafiktreue in Videospielen und Verbraucheranwendungen war. Im Kern nutzt SLI eine Technik namens Alternate Frame Rendering (AFR), um die Rendering-Arbeitslast auf mehrere GPUs aufzuteilen. Jede Karte würde jeden zweiten Frame oder sogar einen Teil jedes Frames zeichnen, wodurch die Grafikleistung effektiv verdoppelt würde. Obwohl SLI zu dieser Zeit revolutionär war, hatte es Einschränkungen, einschließlich höherer Latenz und mangelnder Flexibilität beim Datenaustausch zwischen GPUs.

SLI vs. CrossFire: Eine Rivalität bei Multi-GPU-Lösungen

Während NVIDIAs SLI das Tempo für Multi-GPU-Konfigurationen vorgab, war es nicht ohne Konkurrenz. AMDs CrossFire war ein direkter Konkurrent und bot ähnliche Funktionen für Multi-GPU-Setups. Wie SLI zielte CrossFire darauf ab, die grafische Leistung durch Techniken wie Alternate Frame Rendering (AFR) und Split Frame Rendering (SFR) zu steigern.

Bildquelle: Dallas Moore

Bildquelle: Dallas Moore

CrossFire hatte jedoch seine eigenen Vorteile und Herausforderungen. Generell war es flexibler bei den Kombinationen der verwendbaren GPUs, was einen Mix verschiedener AMD-Karten ermöglichte. Auf der anderen Seite wurde CrossFire oft wegen seines Software-Stacks kritisiert, den einige Benutzer als weniger zuverlässig und komplexer zu konfigurieren empfanden als NVIDIAs SLI. Trotz dieser Unterschiede waren beide Technologien auf dasselbe Ziel ausgerichtet: die Verbesserung des Gaming- und Grafikerlebnisses für Verbraucher. Ihre Einschränkungen bei der Bewältigung komplexerer, datenintensiver Aufgaben würden letztendlich den Weg für Lösungen der nächsten Generation wie NVLink ebnen.

Mit Beginn der 2010er Jahre begann sich die Computerlandschaft dramatisch zu verändern. Der Aufstieg von künstlicher Intelligenz (KI), Hochleistungsrechnen (HPC) und Big-Data-Analysen erforderte robustere Multi-GPU-Lösungen. Es stellte sich heraus, dass SLI, das ursprünglich für Gaming- und Verbraucher-Workloads entwickelt wurde, für diese rechenintensiven Aufgaben nicht ausreichte. NVIDIA brauchte ein neues Paradigma.

Die Ära der Dual-GPU-Karten: Ein einzigartiger Ansatz für Multi-GPU-Computing

Während sich Technologien wie SLI und CrossFire auf die Verbindung mehrerer separater GPUs konzentrierten, gab es einen anderen, weniger verbreiteten Ansatz für Multi-GPU-Konfigurationen: Dual-GPU-Karten. Diese speziellen Grafikkarten beherbergten zwei GPU-Kerne auf einer einzigen Leiterplatte (Printed Circuit Board) und fungierten so effektiv als SLI- oder CrossFire-Setup auf einer einzelnen Karte. Karten wie die NVIDIA GeForce GTX 690 und die AMD Radeon HD 6990 waren beliebte Beispiele für diesen Ansatz.

Dual-GPU-Karten bieten mehrere Vorteile. Sie sparten Platz, indem sie zwei GPUs in einem Kartensteckplatz zusammenfassten, was sie für PCs mit kleinem Formfaktor attraktiv machte. Sie vereinfachten auch die Einrichtung, da keine separaten Karten mit externen Anschlüssen verbunden werden mussten. Allerdings waren diese Karten nicht ohne Probleme. Die Wärmeableitung stellte ein erhebliches Problem dar und erforderte häufig fortschrittliche Kühllösungen. Der Stromverbrauch war ebenfalls hoch und erforderte leistungsstarke Netzteile zur Stabilisierung des Systems.

Interessanterweise waren Dual-GPU-Karten eine Art „Best-of-Both-Worlds“-Lösung, die die rohe Leistung von Multi-GPU-Setups mit der Einfachheit einer einzelnen Karte kombinierte. Dennoch galten sie aufgrund ihrer hohen Kosten und der damit verbundenen technischen Herausforderungen oft als Nischenprodukt. Da sich Multi-GPU-Technologien wie NVLink weiterentwickelt haben, um eine höhere Bandbreite und geringere Latenz zu bieten, ist der Bedarf an Dual-GPU-Karten zurückgegangen. Dennoch bleiben sie ein faszinierendes Kapitel in der Geschichte der GPU-Entwicklung.

Die Tesla-GPU-Reihe von NVIDIA war ein Eckpfeiler im Enterprise-Level-Computing, insbesondere in Rechenzentren und Hochleistungs-Computing-Clustern. Während es sich bei den meisten Tesla-GPUs um Einzel-GPU-Karten handelt, die auf maximale Leistung und Effizienz ausgelegt sind, gibt es Ausnahmen wie die Tesla K80, die über zwei GPUs auf einer einzigen Karte verfügt. Diese Multi-GPU-Tesla-Karten wurden für hochparallele Berechnungen optimiert und waren ein fester Bestandteil der wissenschaftlichen Forschung, des maschinellen Lernens und der Big-Data-Analyse. Sie wurden entwickelt, um die spezifischen Anforderungen dieser Anwendungen zu erfüllen und bieten einen hohen Rechendurchsatz, große Speicherkapazitäten und erweiterte Funktionen wie ECC-Speicher (Error-Correcting Code). Diese Dual-GPU-Tesla-Karten sind zwar weniger verbreitet als ihre Einzel-GPU-Gegenstücke, stellten jedoch eine leistungsstarke, wenn auch Nischenlösung im Enterprise-Computing dar.

Das Aufkommen von NVLink

Da wäre NVLink, das 2017 mit der Volta-Architektur von NVIDIA eingeführt wurde. Diese Technologie war nicht nur ein Upgrade, sondern ein grundlegendes Umdenken bei der Verbindung von GPUs. NVLink bot eine deutlich höhere Bandbreite (bis zu 900 GB/s bei den neuesten Versionen), geringere Latenz und eine Mesh-Topologie, die komplexere und zahlreichere Verbindungen zwischen GPUs ermöglichte. Darüber hinaus führte NVLink das Konzept des Unified Memory ein, das die Speicherzusammenlegung zwischen verbundenen GPUs ermöglicht, eine entscheidende Funktion für Aufgaben, die große Datensätze erfordern.

Entwicklung der NVLink-Leistung

Entwicklung der NVLink-Leistung

SLI vs. NVLink

Auf den ersten Blick könnte man NVLink als „SLI auf Steroiden“ betrachten, aber das wäre eine zu starke Vereinfachung. Während beide Technologien darauf abzielen, mehrere GPUs zu verbinden, wurde NVLink für eine andere Zielgruppe entwickelt. Es ist für die wissenschaftliche Forschung, Datenanalyse und vor allem für KI- und maschinelle Lernanwendungen konzipiert. Die höhere Bandbreite, die geringere Latenz und der einheitliche Speicher machen NVLink zu einer weitaus flexibleren und leistungsfähigeren Lösung für die heutigen Rechenherausforderungen.

Technisches Rückgrat von NVLink

NVLink stellt eine logische Weiterentwicklung der Multi-GPU-Verbindungstechnologie dar, nicht nur im Hinblick auf die Geschwindigkeit, sondern auch im architektonischen Design. Die Struktur von NVLink besteht aus Hochgeschwindigkeits-Datenleitungen, die Daten bidirektional übertragen können. Im Gegensatz zu herkömmlichen busbasierten Systemen nutzt NVLink eine Punkt-zu-Punkt-Verbindung, wodurch Engpässe effektiv reduziert und der Datendurchsatz verbessert werden. Die neuesten Versionen bieten Bandbreiten von bis zu 900 GB/s, eine deutliche Verbesserung gegenüber den Fähigkeiten von SLI.

HP Z8 Fury G5 Innenraum

HP Z8 Fury G5 mit 4x A6000 GPUs

Eines der Hauptmerkmale, die NVLink auszeichnen, ist die Fähigkeit, eine Mesh-Topologie zu unterstützen. Im Gegensatz zu den Daisy-Chain- oder Hub-and-Spoke-Topologien älterer Technologien ermöglicht ein Mesh-Setup vielseitigere und zahlreichere Verbindungen zwischen GPUs. Dies ist besonders nützlich in Rechenzentren und Hochleistungsrechneranwendungen, bei denen komplexe Datenrouten die Norm sind.

Unified Memory ist eine weitere Funktion von NVLink. Dadurch können GPUs einen gemeinsamen Speicherpool nutzen, was eine effizientere Datenfreigabe ermöglicht und die Notwendigkeit verringert, Daten zwischen GPUs zu kopieren. Dies ist ein enormer Schub für Anwendungen wie maschinelles Lernen und Big-Data-Analysen, bei denen große Datensätze oft die Speicherkapazität einer einzelnen GPU überschreiten.

NVLink verbessert auch die Latenz, ein entscheidender Faktor in jedem Hochleistungs-Computing-Setup. Eine geringere Latenz sorgt für eine schnellere Datenübertragung und Synchronisierung zwischen GPUs und führt so zu effizienteren parallelen Berechnungen. Dies wird durch die DMA-Funktionen (Direct Memory Access) von NVLink erreicht, die es GPUs ermöglichen, direkt in den Speicher des anderen zu lesen und zu schreiben, ohne die CPU einzubeziehen.

Die Auswirkungen auf KI und maschinelles Lernen

Angesichts der zunehmenden Bedeutung von KI im modernen Computing sind die Vorteile von NVLink nicht nur inkrementell, sondern transformativ. Beim KI-Modelltraining und der Datenerstellung ermöglicht NVLink eine schnellere Datenübertragung zwischen GPUs und ermöglicht so eine effizientere Parallelverarbeitung. Dies ist insbesondere bei der Arbeit mit großen Trainingsdatensätzen von Vorteil, einem Thema, das eng mit dem aufstrebenden Bereich der Erstellung von KI-Modell-Trainingsdaten zusammenhängt.

Angesichts der wachsenden Anforderungen fortschrittlicher Computer wie Quantensimulationen, Echtzeitanalysen und KI-Algorithmen der nächsten Generation können wir mit weiteren Verbesserungen der Fähigkeiten von NVLink rechnen. Ob es sich um eine Erhöhung der Bandbreite oder um neue Funktionen handelt, die eine noch bessere Zusammenarbeit zwischen GPUs ermöglichen, NVLink oder sein Nachfolger werden zweifellos weiterhin von zentraler Bedeutung für die Erfüllung der Rechenanforderungen von morgen sein.

Der Übergang von SLI zu NVLink markiert einen bedeutenden Meilenstein für Multi-GPU-Technologien. Es spiegelt NVIDIAs Engagement für Innovation und sein ausgeprägtes Verständnis für die sich verändernde Computerlandschaft wider. Von Gaming bis KI, von Verbraucheranwendungen bis hin zu Rechenzentren – die Wurzeln von NVLink im Gaming und SLI veranschaulichen, wie Notwendigkeit Innovationen hervorbringt und die Technologie in einem nie endenden Kreislauf der Verbesserung vorantreibt.

Beteiligen Sie sich an StorageReview 

Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed