Este año en ISC Digital, NVIDIA hizo varios anuncios en torno a su GPU A100. Junto con esto, la compañía anunció una nueva plataforma de IA para supercomputación, NVIDIA Mellanox UFM Cyber-AI Platform. Y NVIDIA aplastó otro punto de referencia.
Este año en ISC Digital, NVIDIA hizo varios anuncios en torno a su GPU A100. Junto con esto, la compañía anunció una nueva plataforma de IA para supercomputación, NVIDIA Mellanox UFM Cyber-AI Platform. Y NVIDIA aplastó otro punto de referencia.
El mes pasado, NVIDIA anunció su nueva arquitectura Ampere y su GPU de 7nm, la NVIDIA A100. La compañía lanzó su propio sistema A100 al mismo tiempo. NVIDIA anunció un factor de forma PCIe para el A100 que permite a todos los principales proveedores lanzar su propia versión del A100. Estos proveedores y sus sistemas incluyen:
- ASUS ofrecerá el ESC4000A-E10, que se puede configurar con cuatro GPU A100 PCIe en un solo servidor.
- Atos ofrece su sistema BullSequana X2415 con cuatro GPU NVIDIA A100 Tensor Core.
- Cisco planea admitir GPU NVIDIA A100 Tensor Core en sus servidores Cisco Unified Computing System y en su sistema de infraestructura hiperconvergente, Cisco HyperFlex.
- Dell Technologies planea admitir GPU NVIDIA A100 Tensor Core en sus servidores y soluciones PowerEdge que aceleran las cargas de trabajo desde el perímetro hasta el núcleo y la nube, al igual que admite otros aceleradores, software y tecnologías de GPU NVIDIA en una amplia gama de ofertas.
- Fujitsu incorpora las GPU A100 a su línea de servidores PRIMERGY.
- GIGABYTE ofrecerá servidores G481-HA0, G492-Z50 y G492-Z51 que admiten hasta 10 GPU A100 PCIe, mientras que el servidor G292-Z40 admite hasta ocho.
- HPE admitirá GPU A100 PCIe en el servidor HPE ProLiant DL380 Gen10 y para cargas de trabajo aceleradas de HPC e IA en el sistema HPE Apollo 6500 Gen10.
- Inspur está lanzando ocho sistemas con tecnología NVIDIA A100, incluidos el NF5468M5, NF5468M6 y NF5468A5 con GPU A100 PCIe, el NF5488M5-D, NF5488A5, NF5488M6 y NF5688M6 con NVLink de ocho vías, y el NF5888M6 con NVLink de 16 vías.
- Lenovo admitirá GPU A100 PCIe en sistemas seleccionados, incluido el servidor listo para IA Lenovo ThinkSystem SR670. Lenovo ampliará la disponibilidad en su cartera ThinkSystem y ThinkAgile en el otoño.
- One Stop Systems ofrecerá su sistema de expansión PCIe OSS 4UV Gen 4 con hasta ocho GPU NVIDIA A100 PCIe para permitir a los clientes de IA y HPC escalar sus servidores Gen 4.
- Quanta/QCT ofrecerá varios sistemas de servidor QuantaGrid, incluidos D52BV-2U, D43KQ-2U y D52G-4U, que admiten hasta ocho GPU NVIDIA A100 PCIe.
- Supermicro ofrecerá su sistema GPU 4U A+, compatible con hasta ocho GPU NVIDIA A100 PCIe y hasta dos ranuras de expansión PCI-E 4.0 de alto rendimiento adicionales junto con otros servidores GPU 1U, 2U y 4U.
El tiempo de inactividad es algo que puede afectar a cualquier centro de datos, pero puede verse peor en los centros de datos de supercomputación. NVIDIA busca minimizar el tiempo de inactividad en los centros de datos InfiniBand con el lanzamiento de NVIDIA Mellanox UFM Cyber-AI Platform. Como su nombre lo indica, la plataforma es una extensión de la cartera de UFM y aprovecha la IA para detectar amenazas de seguridad y problemas operativos, así como para predecir fallas en la red. La plataforma no solo detecta problemas y amenazas (incluidos los piratas informáticos), sino que automáticamente toma medidas correctivas para solucionar los problemas.
NVIDIA se enorgullece de anunciar que fue capaz de romper otro punto de referencia, este relacionado con Big Data Analytics conocido como TPCx-BB. NVIDIA utilizó la suite RAPIDS de bibliotecas de software de ciencia de datos de código abierto con tecnología de 16 sistemas NVIDIA DGX A100. Pudieron ejecutar el punto de referencia en 14.5 minutos frente al récord anterior de 4.7 horas. O 19.5 veces más rápido
Interactuar con StorageReview
Boletín informativo | Canal de YouTube | Podcast iTunes/Spotify | @Instagram | Twitter | Facebook | RSS Feed