Supermicro ha anunciado nuevas ofertas de servidores que incorporan las últimas GPU HGX H200 de NVIDIA (con GPU H200 Tensor Core), que proporcionarán avances significativos en el campo de la IA generativa y la formación LLM.
Supermicro ha anunciado nuevas ofertas de servidores que incorporan las últimas GPU HGX H200 de NVIDIA (con GPU H200 Tensor Core), que proporcionarán avances significativos en el campo de la IA generativa y la formación LLM.
La compañía se está preparando para lanzar plataformas de IA que incluyen sistemas de GPU universales de 8U y 4U, totalmente equipadas para admitir el HGX H200 con configuraciones de 8 y 4 GPU. Estos sistemas cuentan con un ancho de banda de memoria mejorado con la introducción de la tecnología HBM3e, que presenta casi el doble de capacidad y un ancho de banda 1.4 veces mayor en comparación con las generaciones anteriores. Se espera que este salto en la capacidad del hardware satisfaga las crecientes demandas de tareas computacionales más complejas en la investigación y el desarrollo de la IA.
Además, Supermicro anunció un servidor de alta densidad con sistemas NVIDIA HGX H100 de 8 GPU en un sistema 4U refrigerado por líquido, que incorpora las tecnologías de refrigeración más nuevas de la compañía. Al afirmarlo como el servidor GPU de alto rendimiento más compacto de la industria, Supermicro indica que este sistema permite la mayor densidad de capacidad de entrenamiento de IA en una sola unidad de rack hasta la fecha y ayudará a garantizar la eficiencia energética y de costos.
La asociación con NVIDIA ha permitido a Supermicro estar a la vanguardia del diseño de sistemas de IA, brindando soluciones optimizadas para capacitación en IA y cargas de trabajo de HPC. El compromiso de la empresa con la innovación rápida es evidente en la arquitectura de su sistema, que permite una rápida implementación de avances tecnológicos en el mercado. Los nuevos sistemas de IA cuentan con la tecnología de interconexión de NVIDIA, como NVLink y NVSwitch, para admitir transferencias de datos de alta velocidad extrema a 900 GB/s y ofrecen hasta 1.1 TB de memoria HBM3e por nodo, optimizando el rendimiento para el procesamiento paralelo de algoritmos de IA.
Supermicro ofrece una amplia gama de servidores de IA, incluidos los sistemas GPU universales 8U y 4U, ampliamente utilizados. Estos sistemas con GPU NVIDIA HGX H100 de cuatro y ocho vías ahora están preparados para las nuevas GPU H200 (que cuentan con 41 GB de memoria con un ancho de banda de 4.8 TB/s), lo que permite un tiempo de entrenamiento aún más rápido en lenguajes más extensos. modelos.
Supermicro presentará el sistema GPU universal 4U en el próximo SC23.
Interactuar con StorageReview
Boletín | YouTube | Podcast iTunes/Spotify | Instagram | Twitter | Facebook | RSS Feed