Amazon Web Services (AWS) hat die allgemeine Verfügbarkeit von AWS EC2 Trn1-Instanzen angekündigt. Trn1-Instanzen basieren auf von AWS entwickelten Trainium-Chips und sind speziell für das Hochleistungstraining von Modellen für maschinelles Lernen (in der Cloud) konzipiert. Amazon gibt an, dass die „Trainingskosten“ im Vergleich zu ähnlichen GPUs um 50 % gesunken sind -basierte Instanzen.
Amazon Web Services (AWS) hat die allgemeine Verfügbarkeit von AWS EC2 Trn1-Instanzen angekündigt. Trn1-Instanzen basieren auf von AWS entwickelten Trainium-Chips und sind speziell für das Hochleistungstraining von Modellen für maschinelles Lernen (in der Cloud) konzipiert. Amazon gibt an, dass die „Trainingskosten“ im Vergleich zu ähnlichen GPUs um 50 % gesunken sind -basierte Instanzen.
AWS EC2 Trn1-Instanzen bieten die schnellste Zeit zum Trainieren beliebter Modelle für maschinelles Lernen auf AWS. Dadurch können ihre Kunden die Schulungszeiten verkürzen, Modelle schnell iterieren, um die Genauigkeit zu erhöhen, und die Gesamtproduktivität für Arbeitslasten wie die Verarbeitung natürlicher Sprache, Sprach- und Bilderkennung, semantische Suche, Empfehlungsmaschinen, Betrugserkennung und Prognosen verbessern.
Trn1-Instanzen sind auch hinsichtlich der Preisgestaltung sehr flexibel, da es keine Mindestverpflichtungen oder Vorabgebühren gibt. Kunden müssen außerdem nur für die Menge an Rechenleistung bezahlen, die sie nutzen.
Größen und Spezifikationen von AWS EC2 Trn1-Instanzen
Instanzname | vCPUs | AWS Trainium-Chips | Beschleunigerspeicher | NeuronLink | Instanzspeicher | Instanznetzwerk | Lokaler Instanzspeicher |
trn1.2xlarge | 8 | 1 | 32 GB | N / A | 32 GB | Bis zu 12.5 Gbit / s | 1x 500 GB NVMe |
trn1.32xlarge | 128 | 16 | 512 GB | Unterstützte | 512 GB | 800 Gbps | 4x 2 TB NVMe |
Selbst wenn Unternehmen bisher die schnellsten verfügbaren beschleunigten Instanzen nutzten, war das Training komplexerer Modelle für maschinelles Lernen immer noch übermäßig teuer und zeitaufwändig. Mit den neuen AWS EC2 Trn1-Instanzen gibt Amazon an, dass sie über das beste Preis-Leistungs-Verhältnis und das schnellste Machine-Learning-Modelltraining auf AWS verfügen.
Andere bemerkenswerte Funktionen sind die folgenden:
- Wer loslegen möchte, ohne den Code wesentlich zu ändern, kann AWS Neuron verwenden, das Software Development Kit (SDK) für Trn1-Instanzen. Es ist auch in gängige Frameworks für maschinelles Lernen wie PyTorch und TensorFlow integriert.
- Trn1-Instanzen verfügen über bis zu 16 AWS Trainium-Beschleuniger, die speziell für die Bereitstellung von Deep-Learning-Modellen entwickelt wurden.
- Zur Verbesserung der Effizienz ist Trn1 die erste Amazon EC2-Instanz, die über die 800 eine Netzwerkbandbreite von bis zu 2 Gbit/s bietetnd-gen AWS Elastic Fabric Adapter (EFA)-Netzwerkschnittstelle.
- Um das Training zu beschleunigen, verwenden Trn1-Instanzen auch NeuronLink – eine Hochgeschwindigkeits-Intra-Instanz-Verbindung.
Amazon EC2 UltraCluster
Kunden können Trn1-Instanzen in Amazon EC2 UltraClustern (bestehend aus Zehntausenden von Trainium-Beschleunigern) bereitstellen, um schnell die komplexesten Deep-Learning-Modelle zu trainieren, selbst solche mit Billionen von Parametern. Mit EC2 UltraClusters haben Unternehmen die Möglichkeit, das Training von Modellen für maschinelles Lernen mit bis zu 30,000 Trainium-Beschleunigern zu skalieren, die über EFA-Netzwerke im Petabit-Bereich miteinander verbunden sind. Amazon gibt an, dass diese Organisationen daher bei Bedarf Zugriff auf Leistung der Supercomputing-Klasse haben werden, was die Schulungszeit, die normalerweise Monate dauert, erheblich auf nur wenige Tage verkürzen kann.
Jede AWS EC2 Trn1-Instanz unterstützt bis zu 8 TB schnellen lokalen NVMe-SSD-Speicher, während AWS Trainium eine breite Palette von Datentypen unterstützt (FP32, TF32, BF16, FP16 und konfigurierbares FP8). Es unterstützt auch stochastische Rundung, eine auf Wahrscheinlichkeit basierende Methode, um eine hohe Leistung und höhere Genauigkeit zu ermöglichen. Darüber hinaus unterstützt AWS Trainium dynamische Tensorformen und benutzerdefinierte Operatoren, was eine flexible Infrastruktur fördert, die sich an die Schulungsanforderungen der Kunden anpassen lässt.
AWS Nitro-System
Trn1-Instanzen basieren auf dem AWS Nitro System, einer Sammlung von von AWS entwickelten Hardware- und Softwareinnovationen, die die Bereitstellung isolierter Mandantenfähigkeit, privater Netzwerke und schneller lokaler Speicherung optimieren. Um die erforderliche Leistung bereitzustellen, verlagert das Nitro System die CPU-Virtualisierungs-, Speicher- und Netzwerkfunktionen auf dedizierte Hardware und Software.
Verfügbarkeit von AWS EC2 Trn1-Instanzen
AWS Trn1-Instanzen können jetzt als On-Demand-Instanzen (mit Sparplänen), reservierte Instanzen oder Spot-Instanzen erworben werden. Derzeit sind sie in den Regionen USA Ost (Nord-Virginia) und USA West (Oregon) verfügbar. Die Verfügbarkeit wird in Kürze auch in anderen AWS-Regionen erweitert.
Sie werden auch über die folgenden anderen AWS-Dienste verfügbar sein:
- Amazon Sage Maker
- Amazon Elastic Kubernetes-Dienst (Amazon EKS)
- Amazon Elastic Container-Service (Amazon ECS)
- AWS-Charge
Beteiligen Sie sich an StorageReview
Newsletter | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed