Startseite Unternehmen NVIDIA macht auf der GTC Ankündigungen zum Thema Deep Learning

NVIDIA macht auf der GTC Ankündigungen zum Thema Deep Learning

by Adam Armstrong

Heute hat NVIDIA auf der GPU Technology Conference 2018 im Silicon Valley einige Ankündigungen rund um Deep Learning gemacht. Zu diesen Ankündigungen gehört die Partnerschaft mit Arm, um Deep-Learning-Inferenz auf Milliarden von IoT-Geräten zu ermöglichen. NVIDIA kündigt außerdem Fortschritte bei der Leistung für Deep Learning an, die nach eigenen Angaben zehnmal höher sind als vor sechs Monaten.


Heute hat NVIDIA auf der GPU Technology Conference 2018 im Silicon Valley einige Ankündigungen rund um Deep Learning gemacht. Zu diesen Ankündigungen gehört die Partnerschaft mit Arm, um Deep-Learning-Inferenz auf Milliarden von IoT-Geräten zu ermöglichen. NVIDIA kündigt außerdem Fortschritte bei der Leistung für Deep Learning an, die nach eigenen Angaben zehnmal höher sind als vor sechs Monaten.

Bei der Partnerschaft handelt es sich um eine Integration der Open-Source-Architektur NVIDIA Deep Learning Accelerator (NVDLA) in die Project Trillium-Plattform für maschinelles Lernen von ARM. Die Unternehmen geben an, dass diese Partnerschaft es IoT-Chipherstellern ermöglichen wird, KI in ihre Designs zu integrieren oder KI in Milliarden von IoT-Geräten zu integrieren. Die Partnerschaft wird Deep-Learning-Entwicklern auch höhere Leistungsniveaus bringen, da sie die Flexibilität und Skalierbarkeit von Arm nutzen.

NVIDIA hat die Leistung von Cloud-Dienstanbietern und Serverherstellern verbessert, beispielsweise durch zweifache Speicherstarts auf NVIDIA Tesla V2 (jetzt bis zu 100 GB Speicher pro GPU) und die GPU-Verbindungsstruktur NVSwitch, die die Kommunikation von bis zu 32 Tesla-GPUs ermöglicht mit einer Geschwindigkeit von 16 TB/s. Das Unternehmen brachte auch einen Einzelserver heraus, den NVIDIA DGX-2.4. Der DGX-2 kann zwei Petaflops Rechenleistung oder 2 Server liefern, die 300 Racks Platz beanspruchen.

Wie oben erwähnt verfügt der neue Tesla V100 jetzt über 32 GB Speicher statt 16 GB und alle Vorteile, die mehr Speicher mit sich bringt. Viel mehr gibt es dazu nicht zu sagen, außer dass mehrere Computerhersteller dies in Zukunft anbieten werden. Oracle Cloud Infrastructure wird die neuen Tesla V100 auch in der Cloud anbieten.

Die neue Interconnect-Fabric NVSwitch soll die Einschränkungen größerer Datensätze überwinden. NVIDIA gibt an, dass diese Verbindung eine fünfmal höhere Bandbreite hat als der beste PCIe-Switch. Der NVSwitch nutzt die Innovationen von NVIDIA NVLink und erweitert sie weiter, um den Aufbau noch fortschrittlicherer und komplexerer Systeme zu unterstützen.

Wie oben erwähnt, kann der DGX-2 zwei Petaflops liefern, eine Weltneuheit. Das System nutzt den NVSwitch und alle 16 GPUs in einem einheitlichen Speicherbereich, um diesen Meilenstein zu erreichen. Der DGX-2 wird mit einer Suite von NVIDIA-Deep-Learning-Software geliefert und ist somit ideal für Datenwissenschaftler, die auf dem neuesten Stand der Deep-Learning-Forschung sind. Das Unternehmen gibt an, dass der DGX-2 in der Lage ist, FAIRSeq (ein hochmodernes neuronales maschinelles Übersetzungsmodell) in weniger als zwei Tagen zu trainieren. Dies ist eine 10-fache Verbesserung gegenüber dem DGX-1. 

NVIDIA DGX

Diskutiere diese Geschichte

Melden Sie sich für den StorageReview-Newsletter an