Accueil EntrepriseAI Points forts de NVIDIA au GTC 2025 : GPU Blackwell, systèmes DGX et framework AI-Q

Points forts de NVIDIA au GTC 2025 : GPU Blackwell, systèmes DGX et framework AI-Q

by Divyansh Jain

NVIDIA GTC 2025 a dévoilé des avancées révolutionnaires en matière d'IA, notamment les GPU Blackwell Ultra, AI-Q, Mission Control et DGX Spark.

La conférence GTC de NVIDIA a mis en lumière de nombreuses innovations destinées à transformer le développement de l'IA dans de nombreux secteurs et a présenté des avancées majeures en matière de matériel, de logiciels et de partenariats d'IA. Le clou de la GTC 2025 a sans aucun doute été la présentation des GPU pour centres de données et de leur feuille de route. L'accélérateur d'IA le plus puissant de NVIDIA en production à ce jour est le B300, basé sur l'architecture Blackwell Ultra. Ses performances sont multipliées par 1.5 par rapport aux GPU Blackwell, déjà leaders du marché.

Comparés aux GPU commercialisés par NVIDIA, les gains de performances sont stupéfiants :

Spécification H100 H200 B100 B200 B300
Mémoire max 80 Go HBM3 141 Go HBM3e 192 Go HBM3e 192 Go HBM3e 288 Go HBM3e
Bande passante mémoire 3.35 TB / s 4.8 To / s 8 To / s 8 To / s 8 To / s
Noyau tenseur FP4 - - 14hXNUMX FPLOPS 18hXNUMX FPLOPS 30hXNUMX FPLOPS
Noyau tenseur FP6 - - 7hXNUMX FPLOPS 9hXNUMX FPLOPS 15hXNUMX FPLOPS*
Noyau tenseur FP8 3958 TFLOPS (~4 PFLOPS) 3958 TFLOPS (~4 PFLOPS) 7hXNUMX FPLOPS 9hXNUMX FPLOPS 15hXNUMX FPLOPS*
INT 8 Tensor Core 3958 TOPS 3958 TOPS 7 POPS 9 POPS 15hXNUMX FPLOPS*
Noyau de tenseur FP16/BF16 1979 TFLOPS (~2 PFLOPS) 1979 TFLOPS (~2 PFLOPS) 3.5hXNUMX FPLOPS 4.5hXNUMX FPLOPS 7.5hXNUMX FPLOPS*
Noyau tenseur TF32 989 TFLOPS 989 TFLOPS 1.8hXNUMX FPLOPS 2.2hXNUMX FPLOPS 3.3hXNUMX FPLOPS*
FP32 (Dense) 67 TFLOPS 67 TFLOPS 30 TFLOPS 40 TFLOPS Informations inconnues
Noyau tenseur FP64 (dense) 67 TFLOPS 67 TFLOPS 30 TFLOPS 40 TFLOPS Informations inconnues
FP64 (Dense) 34 TFLOPS 34 TFLOPS 30 TFLOPS 40 TFLOPS Informations inconnues
Consommation maximale 700W 700W 700W 1000W Informations inconnues

Remarque : les valeurs marquées d’un « * » sont des calculs approximatifs et non des chiffres officiels de NVIDIA

Le Blackwell Ultra B300, comme ses homologues Blackwell, introduit de nouveaux formats de précision avec des cœurs Tensor FP4 offrant un impressionnant 30 PFLOPS et des cœurs FP6/FP8 offrant 15 PFLOPS* de performances par rapport aux H200 actuels. Cela représente une amélioration d'environ 7.5 fois la puissance de calcul du FP8 par rapport au FP4, et de près de 4 fois celle du FP8.

Le prochain GPU sur la feuille de route de NVIDIA est le Vera Rubin, dont la sortie est prévue l'année prochaine. Vera Rubin devrait offrir des performances 3.3 fois supérieures à celles du Blackwell Ultra, atteignant 50 PFLOPS de calcul FP4 dense, contre 300 PFLOPS pour le B15. Il sera accompagné des technologies ConnectX-9 et NVLink-6, doublant la bande passante des générations précédentes. Les GPU Vera Rubin seront également dotés de la mémoire HBM4, offrant une bande passante mémoire 1.6 fois supérieure. La transition des processeurs Grace vers les processeurs Vera améliorera également considérablement l'interconnexion CPU-GPU, atteignant des débits allant jusqu'à 1.8 To/s.

NVIDIA n'a pas hésité à présenter ses GPU Rubin Ultra, dont le lancement est prévu au second semestre 2027. Ces GPU visent à doubler les performances de Vera Rubin, offrant une capacité de calcul FP100 dense de 4 PFLOPS par GPU. Le Rubin Ultra sera également équipé de 1 To de mémoire HBM4e avancée.

NVIDIA DGX Spark

NVIDIA a présenté son DGX Spark, un système introduit sous le Projet Chiffres Destiné aux développeurs d'IA, aux chercheurs, aux data scientists et aux étudiants, le DGX Spark exploite la nouvelle puce GB10 Blackwell et est configuré avec 128 Go de mémoire unifiée.

NVIDIA affirme que le système offre un extraordinaire 1,000 5070 AI TOPS, ce qui placerait les performances du Spark à un niveau pratique équivalent à celui de la RTX 7. La plateforme Spark intègre également une carte réseau ConnectX 2 SmartNIC, qui équipe le Spark de deux liaisons de 200 Go pour fluidifier le transfert de données. Des partenaires OEM, dont ASUS, Dell, HPE et Lenovo, proposeront bientôt des versions personnalisées. Les réservations sont déjà ouvertes et les livraisons sont prévues pour juillet.

Station NVIDIA DGX

NVIDIA a également présenté la station DGX mise à jour, qui se positionne comme le supercalculateur d'IA de bureau ultime pour les applications d'entreprise et est construit avec la puce GB300 Grace Blackwell Ultra.

La DGX Station offre 784 Go de mémoire système unifiée et offre 20 pétaflops de performances FP4 IA denses. Elle intègre directement la carte réseau ConnectX 8 SuperNIC de NVIDIA, offrant une connectivité réseau à 800 Gbit/s, garantissant ainsi une mise en réseau hautes performances répondant aux exigences de ses importantes capacités de calcul. Des partenaires OEM tels qu'ASUS, Box, Dell, HPE, Lambda et Supermicro devraient construire les systèmes DGX Station, dont la disponibilité est prévue plus tard cette année.

NVIDIA RTX Pro Blackwell

Le train de vie du GPU ne s'est pas arrêté là. Nvidia a dévoilé sa série RTX Pro Blackwell, une refonte complète de sa gamme de GPU professionnels conçue pour accélérer les charges de travail d'IA, de graphisme et de simulation sur toutes les plateformes. Cette nouvelle génération est destinée aux stations de travail, aux systèmes mobiles et aux serveurs. Le modèle phare RTX Pro 6000 Blackwell est doté d'une mémoire GPU de pointe de 96 Go et offre jusqu'à 4,000 XNUMX TOPS de performances d'IA. Ces avancées permettent le ray tracing en temps réel, l'inférence rapide de l'IA et des workflows graphiques avancés jusqu'alors inaccessibles sur les ordinateurs de bureau.

Ces GPU intègrent des innovations technologiques majeures, notamment le multiprocesseur de streaming NVIDIA avec un débit 1.5 fois plus rapide, des cœurs RT de quatrième génération offrant des performances deux fois supérieures à celles des générations précédentes, et des cœurs Tensor de cinquième génération prenant en charge la nouvelle précision FP4 pour les charges de travail d'IA. Parmi les autres améliorations, citons la prise en charge du PCIe Gen 5 pour une bande passante doublée, la compatibilité DisplayPort 2.1 pour les configurations d'affichage à résolution extrême et, dans l'édition Serveur, la technologie NVIDIA Confidential Computing pour des charges de travail d'IA sécurisées.

Les professionnels du secteur ont constaté des améliorations de performances remarquables dans des applications concrètes. Foster + Partners a obtenu un ray tracing 5 fois plus rapide que la RTX A6000, tandis que GE HealthCare a constaté une amélioration jusqu'à 2 fois du temps de traitement GPU pour les algorithmes de reconstruction médicale. Le constructeur automobile Rivian a exploité les nouveaux GPU pour une qualité visuelle VR sans précédent lors des revues de conception, et SoftServe a signalé une productivité triplée lors de l'utilisation de grands modèles d'IA comme Llama 3-3.3B. Plus impressionnant encore, Pixar a constaté que 70 % de ses plans de production tiennent désormais dans les 99 Go de mémoire d'un seul GPU.

La RTX Pro 6000 Blackwell Server Edition transfère ces capacités aux environnements de centre de données grâce à une conception à refroidissement passif pour un fonctionnement 24h/7 et 5j/7. Cette variante axée sur les serveurs offre un débit d'inférence de modèles de langage étendu 3.3 fois supérieur, un séquençage génomique 2 fois plus rapide, une accélération de la conversion texte-vidéo XNUMX fois supérieure et une amélioration de l'inférence et du rendu des systèmes de recommandation XNUMX fois supérieure à celle des générations précédentes. Pour la première fois, ces GPU intègrent les technologies vGPU et GPU multi-instances (MIG), permettant de partitionner chaque carte en quatre instances entièrement isolées, optimisant ainsi l'utilisation des ressources pour diverses charges de travail. Les versions desktop de ces GPU seront commercialisées en avril, suivies des versions serveur en mai et des ordinateurs portables OEM en juin.

NVIDIA Photonique

NVIDIA Photonics, une innovation destinée à transformer les réseaux optiques au sein des centres de données d'IA, a complété les annonces matérielles. En remplaçant les émetteurs-récepteurs enfichables traditionnels par des moteurs optiques intégrés au boîtier du commutateur ASIC, NVIDIA Photonics minimise la consommation d'énergie et optimise la connectivité des données.

S'appuyant sur les optimisations du moteur photonique de TSMC et complétée par des modulateurs à micro-anneaux, des lasers à haut rendement et des connecteurs à fibre détachables, la nouvelle plateforme photonique est conçue pour offrir une efficacité jusqu'à 3.5 fois supérieure, une résilience 10 fois supérieure et des vitesses de déploiement 1.3 fois supérieures à celles des solutions conventionnelles. Présentant son approche écosystémique plus large, NVIDIA a expliqué en quoi ses partenariats avec les leaders du packaging avancé et de la fabrication de composants optiques sont essentiels pour atteindre ces gains de performance.

Avec ces nouveaux développements, NVIDIA a présenté trois nouveaux commutateurs intégrant la technologie SerDes 200G des gammes Quantum-X et Spectrum-X. La gamme Quantum-X Infiniband comprend le Quantum 3450-LD, doté de 144 ports 800G ou 576 ports 200G, offrant une bande passante de 115 Tbit/s. Parmi les commutateurs Ethernet Spectrum-X, la gamme s'étend du Spectrum SN6810, plus compact, avec 128 ports 800G ou 512 ports 200G, au Spectrum SN6800 haute densité, avec 512 ports 800G et 2048 ports 200G. Tous ces commutateurs sont équipés d'un refroidissement liquide pour garantir des performances et une efficacité optimales.

Les commutateurs NVIDIA Quantum-X Photonics InfiniBand devraient être disponibles plus tard cette année, et les commutateurs Ethernet NVIDIA Spectrum-X Photonics seront disponibles en 2026 auprès des principaux fournisseurs d'infrastructures et de systèmes.

Réunir le matériel et les logiciels avec Nvidia Dynamo

Les annonces de NVIDIA portaient autant sur le logiciel que sur le matériel. Pour exploiter pleinement la puissance de calcul des nouveaux GPU Blackwell, NVIDIA a présenté Dynamo, un logiciel d'inférence d'IA conçu spécifiquement pour servir des modèles d'IA à grande échelle.

NVIDIA Dynamo est une plateforme d'inférence open source conçue pour optimiser le déploiement de modèles d'IA à grande échelle dans des centres de données entiers. Son architecture distribuée et désagrégée unique lui permet de déployer une seule requête sur plusieurs GPU, accélérant ainsi considérablement les charges de travail d'inférence. En répartissant intelligemment les tâches de traitement entre le calcul des jetons d'entrée et celui des jetons de sortie, et en exploitant les atouts de l'interconnexion NVLink de NVIDIA, elle permet d'améliorer jusqu'à 30 fois les performances des modèles exigeants en raisonnement comme DeepSeek R1.

Fait remarquable, Dynamo double même le débit des LLM existants, tels que LLAMA, sur les GPU Hopper sans matériel supplémentaire, doublant ainsi la génération de jetons et le potentiel de revenus des usines d'IA. Avec Dynamo, NVIDIA met à la disposition de tous des optimisations à très grande échelle, permettant ainsi à chacun d'exploiter pleinement le potentiel de transformation de l'IA.

Dynamo est disponible aujourd'hui sur GitHub et prend en charge les backends populaires, notamment PyTorch, BLM, SGLang et TensorRT.

Nvidia AI-Q : la nouvelle génération de systèmes d'IA agentique

NVIDIA a également lancé AI-Q (prononcé « IQ »), un système permettant de connecter de manière fluide les agents d'IA aux données et outils d'entreprise à grande échelle. Ce framework open source permet aux agents d'interroger et de raisonner sur plusieurs types de données, notamment du texte, des images et des vidéos, et d'exploiter des outils externes tels que la recherche web et d'autres agents. 

Au cœur d'AI-Q se trouve la nouvelle boîte à outils NVIDIA AgentIQ, une bibliothèque logicielle open source publiée aujourd'hui sur GitHub. AgentIQ facilite la connexion, le profilage et l'optimisation des systèmes multi-agents, permettant ainsi aux entreprises de créer des équipes numériques performantes. AgentIQ s'intègre parfaitement aux frameworks multi-agents existants, notamment CrewAI, LangGraph, Llama Stack, Microsoft Azure AI Agent Service et Letta, permettant aux développeurs de l'adopter progressivement ou en tant que solution complète. 

NVIDIA collabore également avec les principaux fournisseurs de stockage de données pour créer une architecture de référence pour sa plateforme de données IA intégrant NVIDIA NeMo Retriever, AI-Q Blueprint, les GPU Blackwell, la mise en réseau Spectrum X et les DPU Bluefield. L'objectif est de garantir un traitement des données en quasi-temps réel et une récupération rapide des connaissances, dotant ainsi les agents IA de données décisionnelles essentielles.

AI-Q sera disponible pour les développeurs à partir d'avril.

NVIDIA Mission Control : orchestrer l'usine d'IA

S'appuyant sur sa stratégie logicielle globale, NVIDIA a dévoilé Mission Control, la seule plateforme logicielle d'opérations et d'orchestration unifiée du secteur, conçue pour automatiser la gestion complexe des centres de données et des charges de travail d'IA. Tandis que Dynamo optimise l'inférence et qu'AI-Q permet les systèmes agentiques, Mission Control s'attaque à la couche d'infrastructure critique qui sous-tend l'ensemble du pipeline d'IA.

Mission Control transforme la façon dont les entreprises déploient et gèrent leur infrastructure d'IA, en automatisant la gestion de bout en bout, y compris le provisionnement, la surveillance et le diagnostic des erreurs. La plateforme permet des transitions fluides entre les charges de travail d'apprentissage et d'inférence sur les systèmes Blackwell, permettant ainsi aux entreprises de réaffecter les ressources des clusters en fonction de l'évolution dynamique des priorités. Grâce à la technologie Run:ai acquise par NVIDIA, Mission Control multiplie par cinq l'utilisation de l'infrastructure et offre une reprise des tâches jusqu'à dix fois plus rapide que les méthodes traditionnelles nécessitant une intervention manuelle.

Le logiciel offre plusieurs avantages opérationnels essentiels aux charges de travail d'IA modernes, notamment une configuration simplifiée des clusters, une orchestration transparente des charges de travail pour les workflows SUNK (Slurm et Kubernetes), des profils d'alimentation optimisés énergétiquement avec des contrôles sélectionnables par les développeurs et des capacités de reprise d'activité autonome. Parmi les fonctionnalités supplémentaires, citons des tableaux de bord de performance personnalisables, des bilans de santé à la demande et l'intégration au système de gestion technique du bâtiment pour une gestion optimisée du refroidissement et de l'alimentation.

Les principaux fabricants de systèmes, dont Dell, HPE, Lenovo et Supermicro, ont annoncé leur intention de proposer des systèmes NVIDIA GB200 NVL72 et GB300 NVL72 équipés de Mission Control. Dell intégrera le logiciel à son AI Factory avec NVIDIA, tandis que HPE le proposera avec ses systèmes rack Grace Blackwell. Lenovo prévoit de mettre à jour ses solutions Hybrid AI Advantage pour inclure Mission Control, et Supermicro l'intégrera à ses systèmes Supercluster.

NVIDIA Mission Control est déjà disponible pour les systèmes DGX GB200 et DGX B200. La prise en charge des systèmes DGX GB300, DGX B300 et GB300 NVL72 est prévue plus tard cette année. Pour les entreprises souhaitant se lancer dans la gestion d'infrastructures d'IA, NVIDIA a également annoncé que le logiciel Base Command Manager sera bientôt gratuit pour un maximum de huit accélérateurs par système, quelle que soit la taille du cluster.

Conclusion

La conférence GTC 2025 de NVIDIA a ouvert la voie à une transformation radicale des technologies d'IA, dévoilant des avancées révolutionnaires en matière de matériel, de logiciels et d'infrastructure. Des puissants GPU B300 basés sur l'architecture Blackwell Ultra aux systèmes révolutionnaires DGX Spark et DGX Station, NVIDIA continue de redéfinir les possibilités de l'IA. L'introduction de NVIDIA Photonics, du logiciel d'inférence Dynamo, des frameworks d'agents AI-Q et de la plateforme d'orchestration Mission Control permettra aux entreprises d'accélérer leur commercialisation et de se développer plus efficacement, et contribuera sans aucun doute à consolider la position de leader de NVIDIA dans ce domaine.

Mais ce n'est que la partie émergée de l'iceberg. Il y a bien d'autres innovations et perspectives à explorer au GTC. Restez connectés et consultez nos autres articles de presse cette semaine : nous vous présenterons les dernières annonces et approfondirons l'avenir prometteur de NVIDIA.

S'engager avec StorageReview
Newsletter |  YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | Flux RSS