Die neuen Ampere-basierten GPUs von NVIDIA sind da und wenn Sie Glück haben, können Sie vielleicht sogar eine kaufen. Zum Zeitpunkt dieses Schreibens im Februar 2021 ist der Bestand an neuen GPUs immer noch äußerst knapp und es wird nicht erwartet, dass er sich vor mindestens dem dritten Quartal dieses Jahres wieder normalisiert. Aber verpassen Sie wirklich so viel, wenn Sie keine neue NVIDIA GeForce RTX 3 für Ihre Workstation in die Finger bekommen? Es gibt natürlich viele Faktoren zu beachten, ob Sie ein Upgrade benötigen.
Die neuen Ampere-basierten GPUs von NVIDIA sind da und wenn Sie Glück haben, können Sie vielleicht sogar eine kaufen. Zum Zeitpunkt dieses Schreibens im Februar 2021 ist der Bestand an neuen GPUs immer noch äußerst knapp und es wird nicht erwartet, dass er sich vor mindestens dem dritten Quartal dieses Jahres wieder normalisiert. Aber verpassen Sie wirklich so viel, wenn Sie keine neue NVIDIA GeForce RTX 3 für Ihre Workstation in die Finger bekommen? Es gibt natürlich viele Faktoren zu beachten, ob Sie ein Upgrade benötigen.
Heute werfen wir einen Blick auf eine Reihe von Anwendungsfällen, um etwas Licht ins Dunkel zu bringen, ob sich das Warten lohnt. Wir werden uns kreative professionelle Anwendungsfälle ansehen, Dinge wie Blender, Davinci Resolve und LuxMark, aber wir werden uns auch einen Benchmark für maschinelles Lernen ansehen, der auf der Open-Source-TensorFlow-Bibliothek in Python basiert, und ein bisschen Gaming dafür gutes Maß. Wir vergleichen eine NVIDIA GeForce RTX 3090 Founder's Edition mit der NVIDIA Quadro RTX 8000, dem (ehemaligen) König der Workstation-Reihe von NVIDIA. Während ein Vergleich mit der Quadro RTX 6000 passender wäre, da beide Karten über 24 GB VRAM verfügen, wären die Ergebnisse nahezu identisch, da die tatsächlichen Rechenkapazitäten der 8000 und 6000 gleich sind und keiner dieser Benchmarks mehr als 24 GB verwendete von VRAM. Wir haben auch einige OEM-Workstations zum Vergleich, darunter eine Lenovo P920 haben wir zuvor getestet mit zwei RTX 8000s und einem neuen Lenovo P620 vollgepackt mit AMDs neuestem Threadripper PRO.
Warum vergleichen wir eine Workstation-Quadro-Karte mit einer Consumer-GeForce-Karte? Denn noch nie zuvor hat NVIDIA eine so leistungsstarke Consumer-Karte auf den Markt gebracht, und das Preis-Leistungs-Verhältnis, ein Drittel des Geldes im Vergleich zur Quadro-Reihe auszugeben, ist sehr verlockend geworden. Vor allem, weil es zum Zeitpunkt des Verfassens dieses Artikels noch kein offizielles Wort über einen echten TITAN RTX-Nachfolger gibt, der traditionell die Nische für Work-and-Play-GPUs füllt. Es ist auch unmöglich, den aktuellen Zustand der Welt zu ignorieren, da Lösungen für die Arbeit von zu Hause aus für viele Menschen oberste Priorität haben und eine extrem leistungsstarke GPU für CAD bei Tag und Gaming bei Nacht zu haben, klingt besser denn je. Wir wissen, dass wir Sie über den Bildschirm über die Unterschiede zu einer „echten“ Workstation-Karte hören können! Wir werden es schaffen, versprochen; weiter lesen.
Nachfolgend finden Sie die wichtigsten Testsystem- und GPU-Spezifikationen, einschließlich Treiber- und BIOS-Versionen.
OS | Windows 10 Professional (Version 20H2, Oktober 2020) |
CPU | AMD Ryzen 9 3900X |
Memory | 4x8GB (32GB) G.Skill TridentZ Neo 3600MHz CL16 |
Test Drive | 2 TB Samsung 970 Pro |
Hauptplatine | ASRock X570 Taichi (BIOS v4.00, PCIe Gen4) |
Grafikkarte 1 | NVIDIA RTX 3090 Founder's Edition (Studio-Treiber 461.40) |
Grafikkarte 2 | NVIDIA Quadro RTX 8000 (Produktionszweigtreiber R460 U3, 461.40) |
Quadro RTX8000 | RTX 3090 FE | |
Architektur | Turing (12 nm) | Ampere (8 nm) |
CUDA-Kerne | 4,608 | 10,496 |
Tensorkerne | 576 (2. Generation) | 328 (3. Generation) |
RT-Kerne | 72 (1. Generation) | 82 (2. Generation) |
GPU-Speicher | 48 GB GDDR6 mit ECC | 24GB GDDR6X |
FP32-Leistung | 16.3 TFLOPS | 35.6 TFLOPS |
Energieverbrauch | 295W | 350W |
PCIe-Schnittstelle | PCIe 3.0 x16 | PCIe 4.0 x16 |
Kühler | Gebläsestil | Durchströmen |
NVLink Multi-GPU-Unterstützung | Ja | Ja |
SR-IOV-Unterstützung | Ja | Nein |
Benchmarks zwischen GeForce RTX 3090 und Quadro RTX 8000
Beginnen wir mit dem Spielen. Es mag seltsam erscheinen, dies in einen Artikel über Workstation-Grafiken aufzunehmen, aber da heutzutage so viele Menschen von zu Hause aus arbeiten, ist es nicht unangemessen, von vielen Profis zu erwarten, dass sie ihre Arbeit beenden und auf demselben Computer mit dem Spielen beginnen. Wir haben Cyberpunk 2077, Shadow of the Tomb Raider und Borderlands 3 getestet. Borderlands und Tomb Raider verfügen über integrierte Benchmarking-Tools, und obwohl Cyberpunk dies nicht tut, waren wir der Meinung, dass wir eine gute Datenmenge zwischen den beiden Karten aufzeichnen konnten Geben Sie einen Durchschnitt an. Alle Tests wurden mit 1440p durchgeführt; Borderlands war auf alle maximalen Einstellungen außer Bewegungsunschärfe eingestellt; Tomb Raider war auf Maximum, RTX Ultra und kein DLSS eingestellt; und Cyberpunk 2077 war auf die RTX-Medium-Voreinstellung eingestellt, wobei DLSS auf Qualität eingestellt war. E-Sport-Titel wie League of Legends und CS:GO erreichen mit beiden Karten problemlos über 250 FPS, daher wurden sie nicht gründlich getestet. Anekdotenhafterweise haben wir in Call of Duty: Warzone mit beiden Karten konstant weit über 150 FPS gesehen, sie aber nicht gründlich genug getestet, um sie als echten Maßstab für die Aufnahme in diese Tabelle zu betrachten.
Es ist absolut keine Überraschung, dass die RTX 3090 derzeit die absolut beste Gaming-GPU auf dem Markt ist, und während die AMD Radeon 6900XT ihr in bestimmten Titeln Konkurrenz machen wird, hat die 3090 beim Raytracing keine Konkurrenz . Cyberpunk 2077, ob man es liebt oder hasst, ist derzeit der anspruchsvollste Titel, den es gibt, und in all unseren Tests schaffte die RTX 3090 mindestens 65 FPS, selbst in sehr überfüllten Szenen, und die meiste Zeit waren die FPS im oberen Bereich 70er und niedrige 80er mit konstant niedrigen Frametimes. Man kann mit Sicherheit sagen, dass alles, was weniger anspruchsvoll ist, problemlos mit maximalen Einstellungen ausgeführt werden kann und hohe Bildraten beibehalten werden können. Bedenken Sie auch, dass diese Tests im Februar 2021 durchgeführt wurden, bevor NVIDIA Resizable BAR-Unterstützung für GeForce-Karten veröffentlichte. Dieser PCIe-Standard, der auf den neuen Karten von AMD als Smart Access Memory vermarktet wird, ermöglicht CPUs den direkten Zugriff auf den gesamten VRAM auf einmal und verbessert die Leistung beim Spielen. Erste Ergebnisse zeigen je nach Spiel einen Anstieg der FPS um 2–5 %. Resizable BAR wird die Leistung bei Rechenaufgaben wahrscheinlich nicht steigern und wird daher wahrscheinlich in absehbarer Zeit nicht in der Quadro-Reihe verfügbar sein.
Das interessantere Ergebnis hier ist, wie kompetent die Quadro RTX 8000 als Gaming-Karte ist. Obwohl es angesichts seiner enormen Leistung keine Überraschung sein dürfte, sind sein Design und seine Treiber überhaupt nicht für Spiele optimiert, doch mit Ausnahme von Cyberpunk 2077 erreicht es weit über 60 FPS. Cyberpunk war bestenfalls abgehackt, aber das Zurückdrehen des Raytracings und die Einstellung von DLSS auf „Leistung“ verbesserten die Ergebnisse erheblich und hielten in allen außer den anspruchsvollsten Szenen über 60 FPS. Es ist erwähnenswert, dass wir beim Ausführen von Cyberpunk auf dem Quadro auf viele Raytracing-bezogene Fehler gestoßen sind, insbesondere auf ein Problem, bei dem Reflexionen vollständig verschwanden und die Szenen dunkel wurden. Dies ist bei der RTX 3090 nicht der Fall, daher führen wir es auf ein Problem im Zusammenhang mit dem Quadro-Treiber und der berüchtigten Fehlerhaftigkeit von Cyberpunk zurück.
Shadow of the Tomb Raider auf der GeForce RTX 3090, 1440p mit RTX an und DLSS aus.
Als nächstes kommen die guten Sachen; die Workstation-Ergebnisse, die Sie erwarten. In dieser Reihe von Benchmarks wird die Leistung bei 3D-Modellierung, Beleuchtung und Videoarbeit untersucht. Wir beginnen mit LuxMark, einem OpenCL-GPU-Benchmarking-Dienstprogramm. Wir haben die neueste Version, v4alpha0, sowie die ältere v3 mit dem klassischen LuxBall verwendet.
Zu sagen, dass die RTX 3090 eine beeindruckende Leistung hat, wäre eine Untertreibung. Bei stark GPU-gebundenen Anwendungen lässt die neue Ampere-Architektur ihre Muskeln spielen und schlägt sogar das Lenovo P920 und seine dualen RTX 8000. In LuxMark v3 war die Leistung mehr als doppelt so hoch und die v4-Benchmarks näherten sich der Leistung von 150 %. Erwarten Sie, dass es noch viele Diagramme gibt, die so aussehen, aber (Spoiler-Alarm) nicht alles ist so eindeutig, wie es scheint.
Als nächstes werfen wir einen Blick auf V-Ray von Chaos Group. Dieser Benchmark gilt für das V-Ray 3D-Rendering- und Simulationstoolset, das als Plugin für eine Vielzahl von 3D-Modellierungsanwendungen verfügbar ist, darunter unter anderem Cinema 4D, Maya, Rhino und Unreal. Dieser Benchmark konzentriert sich speziell auf die CUDA- und RTX-Leistung. Zum Vergleich haben wir sowohl die neueste Version des V-Ray-Benchmarks (v5) als auch eine ältere Version (v4) verwendet.
Die Geschichte hier ist der von LuxMark sehr ähnlich, wobei die RTX 3090 die RTX 8000 bei weitem übertrifft und sogar über dem Lenovo P920 und seinen Dual-GPUs liegt. Dieser Benchmark zeigt uns insbesondere die massiven Verbesserungen, die NVIDIA an seinen Raytracing-Kernen der 2. Generation vorgenommen hat; Die CUDA-Leistung hat sich etwa verdoppelt, während die RTX-Leistung fast 150 % beträgt.
Als nächstes kommt der allgegenwärtige Blender, eine Open-Source-3D-Modellierungsanwendung. Dieser Benchmark wurde mit dem Dienstprogramm Blender Benchmark ausgeführt. Als Rendermethode wurde NVIDIA OptiX gewählt, im Gegensatz zu CUDA, da alle diese Systeme RTX nutzen können.
Die Geschichte ist noch einmal weitgehend die gleiche: Die RTX-Kerne der nächsten Generation erledigen die Blender-Renderings schnell und durchbrennen sogar die BMW-Renderings in weniger als 10 Sekunden. Diese Geschichte geht weiter, aber keine Sorge, es wird bald sehr interessant. Hier sehen wir uns OctaneBench an, ein Benchmarking-Dienstprogramm für OctaneRender, einen weiteren 3D-Renderer mit RTX-Unterstützung, ähnlich wie V-Ray.
Ja. Als Nächstes werfen wir einen Blick auf Videobearbeitungsanwendungen, insbesondere Davinci Resolve Studio 16.2.8 und Adobe Premiere Pro 2020. Wir verwenden PugetBench für Adobe CC und PugetBench für Resolve, beide entwickelt von PugetSystems, ein PC-Hersteller, der professionelle Workstations für bestimmte Anwendungen herstellt. Dieses Diagramm befasst sich speziell mit dem GPU-Score des gesamten Benchmarks und bewertet die Leistung bei GPU-beschleunigten Effekten.
Schließlich haben wir einige Anwendungsfälle, bei denen das Wertversprechen etwas abnimmt. Anwendungen wie Premiere Pro und Davinci Resolve variieren je nach Projekt und Effekt stark in ihren Leistungsanforderungen und weisen häufig einen CPU-Engpass auf. Es gibt eine Verbesserung, insbesondere bei Resolve, das über eine viel bessere GPU-Optimierung verfügt, aber Benutzer der Adobe Creative Cloud-Suite werden in GeForce-Karten der unteren Preisklasse wie der RTX 3080 mehr Wert finden, wo sie angeblich 90 % der Leistung für 46 erhalten % des Preises (basierend auf dem UVP der Founder's Edition-Karten). Obwohl hier nicht berichtet, war die Leistung in After Effects und Photoshop ähnlich, wobei die meisten Tests CPU-beschränkt waren. Erwähnenswert ist auch, dass sowohl die Quadro- als auch die GeForce-Karte die 7. Generation von NVENC (dem NVIDIA-Encoder) verwenden, sodass die Renderzeiten für H.264 und HEVC ähnlich sind. Bedenken Sie, dass die GeForce-Karten auf drei gleichzeitige Kodierungsaufgaben beschränkt sind (für Dinge wie Streaming und Aufnahme), während die Quadros keine solche Beschränkung haben. Uns sind Umgehungsmöglichkeiten für dieses Limit bekannt, aber darauf gehen wir später ein. Der RTX 3 verwendet eine neue Generation des NVDEC (NVIDIA Decoder), daher wird es bei der Arbeit mit HEVC- und H.3090-Filmmaterial geringfügige Verbesserungen beim Timeline-Scrubbing geben.
Lassen Sie uns von der kreativen Anwendung zu etwas Neuem übergehen. Wir werden uns die maschinelle Lernleistung dieser Karten anhand eines Benchmarks mit dem treffenden Namen AI-Benchmark ansehen. Es handelt sich um eine Open-Source-Python-Bibliothek, die mithilfe der TensorFlow-Bibliothek für maschinelles Lernen eine Reihe von Deep-Learning-Tests ausführt. Sie können mehr darüber erfahren Hier sowie welche spezifischen Testmethoden es verwendet.
Ihr kollektives Keuchen wurde gehört. Hier ist es dasselbe wie bei den meisten kreativen Benchmarks, wobei die GeForce-Karte angeblich die Leistung der Quadro verdoppelt. Dieser Test wurde unter Windows 10 durchgeführt, Sie können jedoch ähnliche Ergebnisse in der Linux-Distribution Ihrer Wahl erwarten. Zum Zeitpunkt des Tests wurde TensorFlow noch nicht aktualisiert, um die neuen Ampere-Karten zu unterstützen, aber durch ein bisschen Hacking konnten wir es zum Laufen bringen, indem wir Komponenten verschiedener CUDA-Entwicklerkits kombinierten. Wir gehen davon aus, dass eine ordnungsgemäß aktualisierte Version in der Zukunft die Ergebnisse nur verbessern kann.
Zu guter Letzt werfen wir einen Blick auf SPECviewperf 2020, die neueste Version des branchenüblichen Benchmarking-Dienstprogramms der Standard Performance Evaluation Corporation. Dieser Benchmark untersucht die Grafikleistung in verschiedenen professionellen Anwendungen. Zum Vergleich haben wir auch das Lenovo P620 mit einer älteren Quadro P6000 aufgeführt.
Hier wird es interessant. Die Ergebnisse der 3D-Modellierung entsprechen in etwa Ihren Erwartungen: Die RTX 3090 übertrifft die RTX 8000 deutlich, aber bei Anwendungen wie CATIA und Creo sowie den Energie- und Medizintests liegt die Leistung der 3090 tatsächlich geringfügig, aber deutlich unter der Leistung Rand. Gegenüber der deutlich älteren Quadro P6000 in unserem Lenovo P620 schnitt sie sogar schlechter ab. Aber was ist mit Siemens NX? Das ist der Kern des Dilemmas zwischen Workstation und Consumer, Quadro und GeForce. Sie lesen die Tabelle richtig. Der 3090 erzielte in Siemens NX eine Bewertung von 25.37. Wir haben diesen Test sieben Mal durchgeführt und auf andere Benchmarking-Ergebnisse im Internet verwiesen, und dieses Ergebnis ist absolut korrekt. Die RTX 3090 hatte in diesem Test weniger als 5 % der Leistung des Lenovo P620 mit der RTX 8000. Lassen Sie uns dies im nächsten Abschnitt genauer untersuchen.
Workstation- versus Consumer-GPUs; Die Fahrer
Die GeForce RTX 3090 ist eine sehr leistungsstarke GPU, das lässt sich nicht leugnen, und die Quadro RTX 8000 ist ebenfalls eine leistungsstarke GPU, aber es ist wichtig, wo sie sich unterscheiden. Die RTX 3090 ist in erster Linie eine Gaming-Grafikkarte. Sie wurde als die absolut beste GPU für Spiele und als „weltweit erste 8K-fähige“ Gaming-Karte entwickelt und wird auch vermarktet. Die Tatsache, dass es die RTX 8000 bei einer Vielzahl von Aufgaben übertreffen kann, in den meisten Fällen mit extremen Margen, ist ein Beweis für seine rohe Kraft, mit der es sich im Wesentlichen brutal durch diese Tests kämpft. Die Quadro RTX 8000 ist in erster Linie eine Workstation-Karte, die dafür konzipiert ist, in Workstations eingebaut, in Rack-Servern gepfercht, über NVLink miteinander verbunden, virtualisiert, hart betrieben und nass weggeräumt zu werden (metaphorisch natürlich) und zu überleben.
Da stellt sich die Frage: Warum war die GeForce RTX 3090 bei bestimmten Aufgaben schlechter als die drei Jahre alte Quadro RTX 3 und sogar schlechter als die fast sechs Jahre alte Quadro P8000? Konkret: Warum sieht die RTX 6 im Siemens NX eine um eine Größenordnung höhere Leistung? Wir sind sicher, dass Sie, versierter Leser, es bereits wissen; Es kommt auf Treiberoptimierungen an. NVIDIA ist Richter, Geschworener und Henker, wenn es darum geht, welche GPUs Workstation-Optimierungen erhalten, und es ist klar, dass sie nicht wollten, dass die RTX 6000 in jeder Anwendung den Boden ihrer vorherigen Quadro-Reihe komplett aufwischen kann. Viele potenzielle Käufer werden sehr enttäuscht sein, wenn sie sehen, dass ihre Hoffnungen auf erstklassige Workstation-Leistung bei Tag und High-End-Gaming bei Nacht nicht möglich sind, zumindest nicht mit dem UVP der RTX 8000 von 3090 US-Dollar. „Nun, dafür gibt es die TITAN-Reihe“, hören wir Sie sagen, aber derzeit ist kein TITAN RTX-Ersatz verfügbar, und die Preisgestaltung des 3090 positioniert ihn sicherlich als TITAN-Ersatz. NVIDIA prahlt in der ersten Zeile ihrer Marketingmaterialien sogar damit, dass der 1,499 eine „Leistung der TITAN-Klasse“ aufweist, aber das Ergebnis von Siemens NX ist bei weitem nicht „TITAN-Klasse“. Ist der 3090 nur ein überbauter, überteuerter 3090? Nicht ganz. Es ist immer noch die beste verfügbare GPU für 3090D-Modellierer und Videoarbeiten, insbesondere mit 3080 GB VRAM, die es Kreativen ermöglicht, problemlos mit großen Modellen und 3K-Filmmaterial zu arbeiten, aber das bringt sie in eine ziemlich kleine Nische, eine Nische, die zuvor von der TITAN bedient wurde -Klassenkarten. Wenn Sie nicht mit CAD-Anwendungen wie Siemens NX, Creo oder CATIA arbeiten, ist die RTX 24 immer noch attraktiv, aber sie ist ein absoluter Nichtstarter, wenn diese Anwendungen für Ihren Arbeitsablauf von entscheidender Bedeutung sind.
Es gibt auch andere Überlegungen. Während sowohl die Quadro- als auch die GeForce-Karte Multi-GPU-Setups über NVLink bieten und es erwähnenswert ist, dass unter den Karten der 3090-Serie nur die 3000 über diese Fähigkeit verfügt, kann nur die Quadro mit SR-IOV virtualisiert werden. Wenn Ihre Arbeitslast die Verteilung einer GPU oder zweier NVLinked-GPUs auf mehrere VMs umfasst, ist Quadro immer noch Ihre einzige Wahl. Obwohl es Möglichkeiten gibt, dies zu umgehen, bleibt der Punkt bestehen, dass diese Funktion durch den GeForce-Treiber von NVIDIA künstlich eingeschränkt wird. Derselbe Treiber, der übrigens Zertifizierungen für einige kreative Anwendungen wie die Adobe Suite und Autodesk sowie eine WHQL-Zertifizierung (Windows Hardware Quality Labs) in seiner Studio-Variante bietet, was die Sache noch verwirrender macht. Während wir davon ausgehen, dass NVIDIA in Zukunft einen echten Ampere-basierten TITAN-Ersatz liefern wird, scheinen die künstlichen Einschränkungen der GeForce RTX 3090, einschließlich der Beschränkung der gleichzeitigen Kodierung mit NVENC, nicht mit dem in Einklang zu stehen, was professionelle Benutzer derzeit suchen .
Während ich diesen Artikel schrieb, kündigte NVIDIA auch seine neue Reihe von Kryptowährungs-Mining-spezifischen GPUs an und seine Absicht, die Mining-Leistung der kommenden RTX 3060 zu halbieren. Dieser Rückgang der Krypto-Mining-Leistung ist völlig künstlich und wird vollständig durch Treiber verursacht, was den Punkt noch deutlicher macht dass wir einfach dem ausgeliefert sind, was NVIDIA mit unseren Karten für würdig erachtet. Wird dieses „unhackbare“ Limit des 3060 ausgenutzt? Zweifellos wurde die NVENC-Grenze weitestgehend unterschritten. Aber im Moment hat NVIDIA alle Karten in der Hand und für viele professionelle Workflows, die stark für CUDA, RTX, TensorFlow und andere NVIDIA-spezifische Computerplattformen optimiert sind, gibt es einfach keine andere Wahl als NVIDIA.
Fazit
Lassen Sie es uns ein wenig aufschlüsseln. Sollten Sie Ihre Lagerbestandswarnungen für die RTX 3090 eingeschaltet lassen? Trotzen Sie den Warteschlangen vor Ihrem örtlichen MicroCenter, um die Chance auf einen zu bekommen? Wie bei den meisten Dingen lautet die Antwort: „Es kommt darauf an.“
- Arbeiten Sie ausschließlich mit großen 3D-Modellen in Anwendungen wie Blender und Cinema 4D oder bearbeiten Sie regelmäßig große 6K- und 8K-Videodateien? Dann ja; Die RTX 3090 ist die beste kreative professionelle GPU auf dem Markt für CUDA- und RTX-beschleunigte Workflows.
- Verfügen Sie über genügend verfügbares Einkommen für ein absolut kompromissloses Gaming-System? Auch ja; Die RTX 3090 ist die beste Gaming-GPU, die man für Geld kaufen kann, insbesondere bei Spielen mit Raytracing und DLSS 2.0-Unterstützung, eine Liste, die täglich länger wird.
- Arbeiten Sie hauptsächlich im CAD, insbesondere in wissenschaftlichen Bereichen mit Anwendungen wie Creo und CATIA? Dann nein; Die RTX 3090 bietet nicht die notwendigen Treiberoptimierungen, die mit der Quadro-Kartenreihe einhergehen, und keine noch so große rohe Leistung kann das überwinden. Wir arbeiten daran, das Neue in die Hände zu bekommen RTX-A6000, der tatsächliche Ersatz der RTX 8000, um Leute wie Sie zu informieren.
- Arbeiten Sie im Bereich maschinelles Lernen und KI? Dies ist eine gemischte Sache, denn es scheint ein „Ja“ zu sein, da die Leistung in TensorFlow ausgezeichnet ist, aber es leider nicht genügend standardisierte Tests oder Datenpunkte gibt, um eine endgültige Schlussfolgerung im Vergleich zu einer neueren Quadro-Karte zu ziehen. Außerdem wurde TensorFlow zum jetzigen Zeitpunkt noch nicht aktualisiert, um Ampere-Karten ordnungsgemäß zu unterstützen. Unsere aktuelle Antwort ist ein sanftes Ja. Wir können uns das ansehen MLCommons und MLperf in Zukunft als Nachfolger, speziell für Anwendungsfälle im Bereich KI und maschinelles Lernen.
- Besitzen Sie derzeit eine TITAN RTX und möchten ein Upgrade durchführen? Wir empfehlen Ihnen, auf eine offizielle Ankündigung von NVIDIA zum Ampere-basierten TITAN zu warten, die Gerüchten zufolge irgendwann erscheinen wird. Wenn Ihre Anwendungsfälle den TITAN sinnvoll nutzen, kann es je nach Arbeitsablauf zu einem Downgrade der RTX 3090 kommen.
- Machen Sie viel GPU-Virtualisierung? Das ist ein klares Nein; Die RTX 3090 unterstützt SR-IOV nicht nativ.
Nach alledem hoffen wir, dass dies Ihre Entscheidung für ein Upgrade oder nicht und darüber, ob Sie sich für GeForce oder Quadro entscheiden, beeinflussen kann. Wenn Ihnen der UVP der RTX 1,499 von 3090 US-Dollar zu teuer ist und Sie nicht mehr als 10 GB VRAM benötigen, ist die RTX 3080 ebenfalls eine großartige Option. Obwohl wir hier nicht ausdrücklich getestet wurden, haben wir basierend auf Ergebnissen im Internet festgestellt, dass unsere Ergebnisse im Allgemeinen 20 bis 30 % besser waren als die der RTX 3080. Sie können also davon ausgehen, dass sie die Quadro RTX 8000 in ähnlichen Anwendungen übertrifft (und unterschreitet). Als Mittelweg könnte es sich auch lohnen, auf die gemunkelte RTX 3080 Ti zu warten, wann immer diese kommt. Wir werden vorerst nach der auf Ampere basierenden TITAN Ausschau halten, die wirklich die Lücke zwischen einer vollwertigen Workstation-Karte und einer vollwertigen Gaming-Karte schließt. Wir werden auch die Treiberpipeline von NVIDIA im Auge behalten, um zu sehen, ob sie in zukünftigen Versionen irgendwelche betriebsbedingten Mängel der Karte beheben, aber wir haben unsere Zweifel. Wir würden gerne Ihre Meinung dazu hören und auch, ob es Benchmarks oder Anwendungsfälle gibt, die wir übersehen haben und die Sie gerne sehen würden, insbesondere im Zusammenhang mit KI und maschinellem Lernen. Kontaktieren Sie uns auf unseren sozialen Kanälen und bleiben Sie auf dem Laufenden für weitere kreative Profi- und Workstation-Bewertungen.
Weiterlesen - NVIDIA RTX A6000 Testbericht
NVIDIA Quadro RTX 8000 auf Amazon
NVIDIA GeForce RTX 3090 Founder's Edition bei Amazon
Beteiligen Sie sich an StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | RSS Feed