Inicio EmpresaAI Aspectos destacados de NVIDIA en GTC 2025: GPU Blackwell, sistemas DGX y AI-Q Framework

Aspectos destacados de NVIDIA en GTC 2025: GPU Blackwell, sistemas DGX y AI-Q Framework

by Divyansh Jain

NVIDIA GTC 2025 presentó innovadores avances en inteligencia artificial, incluidas las GPU Blackwell Ultra, AI-Q, Mission Control y DGX Spark.

La conferencia GTC de NVIDIA destacó numerosas innovaciones que transformarán el desarrollo de la IA en múltiples sectores y mostró avances en hardware, software y colaboraciones de IA. La joya de la corona de la GTC 2025 fue, sin duda, la presentación de las GPU para centros de datos y su hoja de ruta. El acelerador de IA más potente de NVIDIA en producción hasta la fecha es el B300, basado en la arquitectura Blackwell Ultra. Presenta un rendimiento 1.5 veces superior al ya líder del sector de las GPU Blackwell.

En comparación con las GPU lanzadas por NVIDIA, las mejoras de rendimiento son asombrosas:

Especificaciones H100 H200 B100 B200 B300
Max Memory 80 GB HBM3 141 GB HBM3e 192 GB HBM3e 192 GB HBM3e 288 GB HBM3e
ancho de banda de memoria 3.35 TB / s 4.8 TB / s 8 TB / s 8 TB / s 8 TB / s
Núcleo tensor FP4 14 PFLOPS 18 PFLOPS 30 PFLOPS
Núcleo tensor FP6 7 PFLOPS 9 PFLOPS 15 PFLOPS*
Núcleo tensor FP8 3958 TFLOPS (~4 PFLOPS) 3958 TFLOPS (~4 PFLOPS) 7 PFLOPS 9 PFLOPS 15 PFLOPS*
Núcleo tensorial INT 8 3958 TOPS 3958 TOPS 7 POPS 9 POPS 15 PFLOPS*
Núcleo tensor FP16/BF16 1979 TFLOPS (~2 PFLOPS) 1979 TFLOPS (~2 PFLOPS) 3.5 PFLOPS 4.5 PFLOPS 7.5 PFLOPS*
Núcleo tensor TF32 989 TFLOPS 989 TFLOPS 1.8 PFLOPS 2.2 PFLOPS 3.3 PFLOPS*
FP32 (Denso) 67 TFLOPS 67 TFLOPS 30 TFLOPS 40 TFLOPS Información desconocida
Núcleo tensorial FP64 (denso) 67 TFLOPS 67 TFLOPS 30 TFLOPS 40 TFLOPS Información desconocida
FP64 (Denso) 34 TFLOPS 34 TFLOPS 30 TFLOPS 40 TFLOPS Información desconocida
Consumo de energía máximo 700W 700W 700W 1000W Información desconocida

Nota: Los valores marcados con “*” son cálculos aproximados y no números oficiales de NVIDIA.

El Blackwell Ultra B300, al igual que sus homólogos Blackwell, presenta nuevos formatos de precisión con núcleos tensores FP4 que ofrecen un impresionante rendimiento de 30 PFLOPS y FP6/FP8 de 15 PFLOPS*, en comparación con los H200 actuales. Esto representa una mejora de aproximadamente 7.5 veces en la computación FP8 con FP4 y una mejora de casi 4 veces en el rendimiento de FP8.

El siguiente paso en la hoja de ruta de NVIDIA es la GPU Vera Rubin, cuyo lanzamiento está previsto para el próximo año. Se espera que Vera Rubin ofrezca un rendimiento 3.3 veces superior al de Blackwell Ultra, alcanzando 50 PFLOPS de computación FP4 densa, en comparación con los 300 PFLOPS de la B15. Estará acompañada de las tecnologías ConnectX-9 y NVLink-6, duplicando el ancho de banda de las generaciones anteriores. Las GPU Vera Rubin también incorporarán memoria HBM4, lo que proporcionará un aumento de 1.6 veces en el ancho de banda de memoria. La transición de las CPU Grace a las Vera también mejorará significativamente la interconexión entre la CPU y la GPU, alcanzando velocidades de hasta 1.8 TB/s.

NVIDIA no se contuvo y presentó sus GPU Rubin Ultra, cuyo lanzamiento está previsto para la segunda mitad de 2027. Las GPU Rubin Ultra buscan duplicar el rendimiento de Vera Rubin, ofreciendo la asombrosa cifra de 100 PFLOPS de computación FP4 densa por GPU. Rubin Ultra también estará equipada con 1 TB de memoria HBM4e avanzada.

NVIDIA DGX Spark

NVIDIA presentó su DGX Spark, un sistema presentado bajo el Proyecto Dígitos Apodo, presentado en el CES a principios de este año. Dirigido a desarrolladores de IA, investigadores, científicos de datos y estudiantes, el DGX Spark utiliza el nuevo chip GB10 Blackwell y está configurado con 128 GB de memoria unificada.

NVIDIA afirma que el sistema ofrece la extraordinaria cantidad de 1,000 TOPS de IA, lo que situaría el rendimiento del Spark a un nivel prácticamente equivalente al de la RTX 5070. La plataforma Spark también integra una tarjeta SmartNIC ConnectX 7, que equipa al Spark con dos enlaces de 2 GB para optimizar la transferencia de datos. Socios OEM, como ASUS, Dell, HPE y Lenovo, ofrecerán próximamente versiones de marca. Las reservas ya están abiertas y los envíos comenzarán en julio.

Estación NVIDIA DGX

NVIDIA también presentó la DGX Station actualizada, que se posiciona como la supercomputadora de inteligencia artificial de escritorio definitiva para aplicaciones empresariales y está construida con el chip GB300 Grace Blackwell Ultra.

La DGX Station ofrece 784 GB de memoria de sistema unificada y 20 petaflops de alto rendimiento en IA FP4. Esto integra la SuperNIC ConnectX 8 de NVIDIA directamente en el sistema, lo que permite una conectividad de red de 800 Gb/s y garantiza que las redes de alto rendimiento satisfagan las demandas de su considerable capacidad de cómputo. Socios OEM como ASUS, Box, Dell, HPE, Lambda y Supermicro están programados para desarrollar sistemas DGX Station, cuya disponibilidad está prevista para finales de este año.

NVIDIA RTX Pro Blackwell

El tren de la salsa de la GPU no se detuvo allí. Nvidia presentó su serie RTX Pro Blackwell, una renovación completa de su línea de GPU profesionales diseñada para acelerar las cargas de trabajo de IA, gráficos y simulación en todas las plataformas. Esta nueva generación abarca estaciones de trabajo de escritorio, sistemas móviles y servidores, con la RTX Pro 6000 Blackwell, el modelo insignia, que cuenta con 96 GB de memoria GPU, líder en la industria, y ofrece hasta 4,000 TOPS de rendimiento en IA. Estos avances permiten el trazado de rayos en tiempo real, la rápida inferencia de IA y flujos de trabajo gráficos avanzados, antes inalcanzables en sistemas de escritorio.

Las innovaciones tecnológicas integradas en estas GPU son sustanciales, incluyendo el Multiprocesador de Streaming de NVIDIA con un rendimiento 1.5 veces más rápido, núcleos RT de cuarta generación que ofrecen el doble de rendimiento que las generaciones anteriores y núcleos Tensor de quinta generación que admiten la nueva precisión FP4 para cargas de trabajo de IA. Otras mejoras incluyen compatibilidad con PCIe Gen 5 para duplicar el ancho de banda, compatibilidad con DisplayPort 2.1 para configuraciones de pantalla de resolución extrema y, en la Edición Server, NVIDIA Confidential Computing para cargas de trabajo de IA seguras.

Los profesionales de la industria han reportado notables mejoras de rendimiento en aplicaciones del mundo real. Foster + Partners logró un trazado de rayos 5 veces más rápido que la RTX A6000, mientras que GE HealthCare detectó una mejora de hasta el doble en el tiempo de procesamiento de la GPU para algoritmos de reconstrucción médica. El fabricante de automóviles Rivian aprovechó las nuevas GPU para lograr una calidad visual de RV sin precedentes en las revisiones de diseño, y SoftServe reportó un aumento de productividad del triple al trabajar con grandes modelos de IA como Llama 2-3B. Quizás lo más impresionante es que Pixar señaló que el 3.3 % de sus tomas de producción ahora caben en la memoria de 70 GB de una sola GPU.

La RTX Pro 6000 Blackwell Server Edition lleva estas capacidades a entornos de centros de datos con un diseño de refrigeración pasiva para un funcionamiento ininterrumpido. Esta variante, enfocada en servidores, ofrece un rendimiento 24 veces superior en la inferencia de modelos de lenguaje grandes, una secuenciación genómica 7 veces más rápida, una aceleración 5 veces superior en la generación de texto a vídeo y el doble de mejoras en la inferencia y renderizado de sistemas de recomendación en comparación con el hardware de la generación anterior. Por primera vez, estas GPU admiten la tecnología vGPU y GPU multiinstancia (MIG), lo que permite particionar cada tarjeta en hasta cuatro instancias completamente aisladas, maximizando el uso de recursos para diversas cargas de trabajo. Las versiones de escritorio de estas GPU se lanzarán al mercado en abril, seguidas de las de servidor en mayo y las portátiles basadas en OEM en junio.

Fotónica NVIDIA

NVIDIA Photonics, una innovación que transformará las redes ópticas en los centros de datos de IA, completó los anuncios de hardware. Al reemplazar los transceptores conectables tradicionales con motores ópticos integrados en el mismo paquete que el ASIC del conmutador, NVIDIA Photonics minimiza el consumo de energía y optimiza la conectividad de datos.

Utilizando las optimizaciones del motor fotónico de TSMC y complementadas con moduladores de microanillo, láseres de alta eficiencia y conectores de fibra desmontables, la nueva plataforma Photonics está diseñada para ofrecer una eficiencia hasta 3.5 veces superior, una resiliencia 10 veces superior y alcanzar velocidades de implementación 1.3 veces más rápidas que las soluciones convencionales. Al demostrar su enfoque de ecosistema más amplio, NVIDIA detalló cómo sus alianzas con líderes en empaquetado avanzado y fabricación de componentes ópticos son fundamentales para lograr estas mejoras de rendimiento.

Con estos nuevos desarrollos, NVIDIA presentó tres nuevos switches con SerDes de 200G de las familias Quantum-X y Spectrum-X. La línea Quantum-X Infiniband incluye el Quantum 3450-LD, que cuenta con 144 puertos de 800G o 576 puertos de 200G, ofreciendo un ancho de banda de 115 Tb/s. En cuanto a los switches Ethernet Spectrum-X, la gama abarca desde el Spectrum SN6810, más compacto, con 128 puertos de 800G o 512 puertos de 200G, hasta el Spectrum SN6800 de alta densidad, con 512 puertos de 800G y 2048 puertos de 200G. Todos estos switches incorporan tecnología de refrigeración líquida para mantener un rendimiento y una eficiencia óptimos.

Se espera que los conmutadores NVIDIA Quantum-X Photonics InfiniBand estén disponibles a finales de este año, y los conmutadores Ethernet NVIDIA Spectrum-X Photonics estarán disponibles en 2026 a través de los principales proveedores de infraestructura y sistemas.

Uniendo hardware y software con Nvidia Dynamo

Los anuncios de NVIDIA se centraron en software y hardware a partes iguales. Para aprovechar al máximo la potencia computacional de las nuevas GPU Blackwell, NVIDIA presentó Dynamo, un software de inferencia de IA diseñado específicamente para ofrecer modelos de IA a escala.

NVIDIA Dynamo es una plataforma de inferencia de código abierto diseñada para optimizar la implementación de modelos de IA a gran escala en centros de datos completos. Su arquitectura distribuida y desagregada única le permite escalar una sola consulta en varias GPU, acelerando drásticamente las cargas de trabajo de inferencia. Al dividir inteligentemente las tareas de procesamiento entre el cálculo de tokens de entrada y los tokens de salida, y aprovechar las ventajas de la interconexión NVLink de NVIDIA, logra mejoras de rendimiento hasta 30 veces superiores para modelos con razonamiento intensivo como DeepSeek R1.

Sorprendentemente, Dynamo incluso duplica el rendimiento de las LLM existentes, como LLAMA, en GPU Hopper sin hardware adicional, duplicando así la generación de tokens y el potencial de ingresos para las fábricas de IA. Con Dynamo, NVIDIA ofrece optimizaciones a hiperescala a todos, permitiéndoles aprovechar al máximo el potencial transformador de la IA.

Dynamo está disponible hoy en GitHub y es compatible con backends populares, incluidos PyTorch, BLM, SGLang y TensorRT.

Nvidia AI-Q: La próxima generación de sistemas de IA con agentes

NVIDIA también presentó AI-Q (que se pronuncia "IQ"), un modelo para conectar agentes de IA sin problemas con datos y herramientas empresariales a gran escala. Este marco de código abierto permite a los agentes consultar y razonar sobre múltiples tipos de datos, como texto, imágenes y vídeo, y aprovechar herramientas externas como la búsqueda web y otros agentes. 

En el núcleo de AI-Q se encuentra el nuevo kit de herramientas NVIDIA AgentIQ, una biblioteca de software de código abierto publicada hoy en GitHub. AgentIQ facilita la conexión, la creación de perfiles y la optimización de sistemas multiagente, lo que permite a las empresas crear equipos de trabajo digitales sofisticados. AgentIQ se integra a la perfección con los frameworks multiagente existentes, como CrewAI, LangGraph, Llama Stack, Microsoft Azure AI Agent Service y Letta, lo que permite a los desarrolladores adoptarlo de forma gradual o como una solución completa. 

NVIDIA también colabora con proveedores líderes de almacenamiento de datos para crear una arquitectura de referencia para la plataforma de datos de IA que integra NVIDIA NeMo Retriever, AI-Q Blueprint, GPU Blackwell, redes Spectrum X y DPU Bluefield. Para garantizar el procesamiento de datos casi en tiempo real y la rápida recuperación de información, dotando a los agentes de IA de inteligencia empresarial esencial.

AI-Q estará disponible para que los desarrolladores lo experimenten a partir de abril.

NVIDIA Mission Control: Orquestando la fábrica de IA

Basándose en su estrategia integral de software, NVIDIA presentó Mission Control, la única plataforma de software unificada de operaciones y orquestación del sector, diseñada para automatizar la gestión compleja de centros de datos y cargas de trabajo de IA. Mientras Dynamo optimiza la inferencia y AI-Q habilita sistemas de agentes, Mission Control aborda la capa de infraestructura crítica que sustenta todo el flujo de trabajo de IA.

Mission Control transforma la forma en que las empresas implementan y gestionan su infraestructura de IA, automatizando la gestión integral, incluyendo el aprovisionamiento, la monitorización y el diagnóstico de errores. La plataforma facilita transiciones fluidas entre las cargas de trabajo de entrenamiento e inferencia en sistemas basados ​​en Blackwell, lo que permite a las organizaciones reasignar los recursos del clúster a medida que las prioridades cambian dinámicamente. Al incorporar la tecnología Run:ai adquirida por NVIDIA, Mission Control multiplica por cinco la utilización de la infraestructura y ofrece una recuperación de trabajos hasta diez veces más rápida que los métodos tradicionales que requieren intervención manual.

El software ofrece varias ventajas operativas cruciales para las cargas de trabajo de IA modernas, como la configuración simplificada de clústeres, la orquestación fluida de las cargas de trabajo para flujos de trabajo SUNK (Slurm y Kubernetes), perfiles de energía optimizados con controles seleccionables por el desarrollador y funciones de recuperación autónoma de trabajos. Otras funciones incluyen paneles de rendimiento personalizables, comprobaciones de estado bajo demanda e integración con sistemas de gestión de edificios para una mejor refrigeración y gestión energética.

Los principales fabricantes de sistemas, como Dell, HPE, Lenovo y Supermicro, han anunciado sus planes de ofrecer sistemas NVIDIA GB200 NVL72 y GB300 NVL72 equipados con Mission Control. Dell incorporará el software en su fábrica de IA con NVIDIA, mientras que HPE lo ofrecerá con sus sistemas a escala de rack Grace Blackwell. Lenovo planea actualizar sus soluciones Hybrid AI Advantage para incluir Mission Control, y Supermicro lo integrará en sus sistemas Supercluster.

NVIDIA Mission Control ya está disponible para los sistemas DGX GB200 y DGX B200, y se espera que sea compatible con los sistemas DGX GB300, DGX B300 y GB300 NVL72 a finales de este año. Para las organizaciones que buscan empezar a gestionar su infraestructura de IA, NVIDIA también ha anunciado que el software Base Command Manager pronto estará disponible de forma gratuita para hasta ocho aceleradores por sistema, independientemente del tamaño del clúster.

Conclusión

El GTC 2025 de NVIDIA sentó las bases para un salto transformador en la tecnología de IA, presentando avances revolucionarios en hardware, software e infraestructura. Desde las potentes GPU B300 basadas en la arquitectura Blackwell Ultra hasta los revolucionarios sistemas DGX Spark y DGX Station, NVIDIA continúa redefiniendo las posibilidades de la computación de IA. La introducción de NVIDIA Photonics, el software de inferencia Dynamo, los marcos de trabajo de agentes AI-Q y la plataforma de orquestación Mission Control ayudará a las empresas a comercializar sus productos con mayor rapidez y a escalar de forma más eficiente, y sin duda consolidará aún más a NVIDIA como líder en este sector.

Sin embargo, esto es solo la punta del iceberg. Hay mucha más innovación y conocimiento por explorar en GTC. Manténganse al tanto de nuestras otras noticias esta semana, ya que seguiremos ofreciéndoles los últimos anuncios y análisis a fondo del emocionante futuro de NVIDIA.

Interactuar con StorageReview
Boletín | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed