Inicio Empresa La NIC Pensando Pollara 400 de AMD aporta programabilidad y rendimiento a las redes de IA

La NIC Pensando Pollara 400 de AMD aporta programabilidad y rendimiento a las redes de IA

by harold fritts

AMD lanza Pensando Pollara 400, una NIC de IA de 400 Gbps totalmente programable diseñada para optimizar la comunicación de la GPU y acelerar las cargas de trabajo de IA.

AMD ha anunciado la disponibilidad de Pensando Pollara 400, la primera tarjeta de interfaz de red (NIC) para IA totalmente programable de la industria. Diseñada para acelerar las cargas de trabajo de IA, esta innovadora solución es compatible con los estándares en desarrollo del Consorcio Ultra Ethernet (UEC) y está optimizada para optimizar la comunicación entre GPU en centros de datos. La NIC para IA Pollara 400 representa un avance significativo en la construcción de infraestructura escalable y de alto rendimiento para cargas de trabajo de IA/ML, IA generativa y modelos de lenguaje de gran tamaño.

Pensando Pollara 400

A medida que la IA evoluciona, las organizaciones se enfrentan al reto de desarrollar infraestructuras informáticas similares que ofrezcan un rendimiento óptimo y la flexibilidad necesaria para adaptarse a las demandas futuras. Un factor crucial en esta evolución es el escalado eficiente de las redes de comunicación de GPU intranodo. El compromiso de AMD de preservar la elección del cliente y reducir el coste total de propiedad (TCO) sin sacrificar el rendimiento se hace evidente en la tarjeta de red de IA Pollara 400. Esta solución permite a las organizaciones crear una infraestructura de IA preparada para el futuro, manteniendo la compatibilidad con un ecosistema abierto.

Aceleración de las cargas de trabajo de IA con redes avanzadas

Maximizar el rendimiento de los clústeres de IA es una prioridad absoluta para los proveedores de servicios en la nube, los hiperescaladores y las empresas. Sin embargo, muchas organizaciones consideran la red como un cuello de botella que limita el uso de la GPU. Si bien la velocidad de transferencia de datos es esencial, solo resulta beneficiosa cuando la red está optimizada para satisfacer las demandas de las cargas de trabajo de IA modernas.

Especificaciones Detalles
El ancho de banda máximo 400 Gbps
Factor de forma Media altura, media longitud (HHHL)
Interfaz de host PCIe Gen5.0 x16
Interfaz de Ethernet QSFP112 (NRZ/PAM4 Serdes)
Velocidades de Ethernet 25/50/100/200/400 Gbps
Configuraciones de Ethernet Admite hasta 4 puertos:
1 x 400G
2 x 200G
4 x 100G
4 x 50G
4 x 25G
Gestionamiento MCTP sobre SMBus

La tarjeta de red Pensando Pollara 400 AI aborda estos desafíos ofreciendo equilibrio de carga inteligente, gestión de congestión, conmutación por error rápida y recuperación ante pérdidas. Estas características garantizan el uso completo de los recursos de red y computación, lo que permite un mayor tiempo de actividad, una finalización de tareas más rápida y una mayor confiabilidad a escala. A medida que las cargas de trabajo de IA aumentan en complejidad y tamaño, la tarjeta de red Pollara 400 AI proporciona las herramientas necesarias para eliminar cuellos de botella y aprovechar al máximo el potencial de la infraestructura de IA.

Una solución programable y preparada para el futuro

La tarjeta de red de IA Pollara 400 está basada en la arquitectura P4 de AMD, lo que ofrece una canalización de hardware totalmente programable que ofrece una flexibilidad inigualable. Esta programabilidad permite a los clientes adaptarse a nuevos estándares, como los establecidos por la UEC, o crear protocolos de transporte personalizados para sus cargas de trabajo específicas. A diferencia del hardware tradicional, que requiere nuevas generaciones para soportar funciones emergentes, la Pollara 400 permite a las organizaciones actualizar su infraestructura de IA sin esperar actualizaciones de hardware.

Las características clave del Pollara 400 incluyen compatibilidad con múltiples protocolos de transporte, como RoCEv2, UEC RDMA y otros protocolos Ethernet, lo que garantiza la compatibilidad con diversas cargas de trabajo. Funciones avanzadas como la pulverización inteligente de paquetes, la gestión de paquetes fuera de orden y la retransmisión selectiva optimizan el uso del ancho de banda y reducen la latencia, aspectos cruciales para el entrenamiento y la implementación de grandes modelos de IA. El control de congestión con reconocimiento de rutas y la detección rápida de fallos garantizan un rendimiento cercano a la velocidad de la red y minimizan el tiempo de inactividad de la GPU, incluso durante congestiones transitorias o fallos de red.

La ventaja del ecosistema abierto

El enfoque de ecosistema abierto de AMD garantiza la compatibilidad con proveedores independientes, lo que permite a las organizaciones establecer una infraestructura de IA que satisfaga las demandas actuales, a la vez que es escalable y programable para necesidades futuras. Esta estrategia reduce las inversiones de capital (CapEx) al eliminar la necesidad de costosas estructuras de conmutación de búfer grande basadas en celdas, a la vez que garantiza un alto rendimiento.

La tarjeta de red de inteligencia artificial Pensando Pollara 400 ya ha sido validada en algunos de los centros de datos de escalamiento horizontal más grandes del mundo. Los proveedores de servicios en la nube (CSP) han elegido esta solución por su combinación única de programabilidad, alto ancho de banda, baja latencia y amplio conjunto de funciones. Al habilitar una infraestructura extensible dentro de un ecosistema abierto, AMD ayuda a las organizaciones a preparar sus entornos de inteligencia artificial para el futuro, a la vez que ofrece beneficios inmediatos de rendimiento.

Pensando en AMD

Interactuar con StorageReview

Boletín | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | TikTok | RSS Feed