Durante una presentación en ISC 23, Intel destacó su liderazgo en rendimiento para cargas de trabajo de computación de alto rendimiento (HPC) e inteligencia artificial (IA), compartió su cartera de futuros productos de HPC e IA, y anunció planes ambiciosos para un esfuerzo internacional para utilizar Aurora supercomputadora para desarrollar modelos generativos de IA para la ciencia y la sociedad.
Durante una presentación en ISC 23, Intel destacó su liderazgo en rendimiento para cargas de trabajo de computación de alto rendimiento (HPC) e inteligencia artificial (IA), compartió su cartera de futuros productos de HPC e IA, y anunció planes ambiciosos para un esfuerzo internacional para utilizar Aurora supercomputadora para desarrollar modelos generativos de IA para la ciencia y la sociedad.
El desempeño competitivo encabezó la factura, donde los resultados de Intel fueron claros ganadores frente a la competencia. La serie Max de GPU para centros de datos de Intel superó a la tarjeta NVIDIA H100 PCIe en un promedio del 30 por ciento en diversas cargas de trabajo. Los resultados independientes del proveedor de software Ansys indicaron una aceleración del 50 por ciento para la GPU de la serie Max sobre la H100 en aplicaciones HPC aceleradas por IA.
La CPU de la serie Xeon Max demostró una mejora del 65 por ciento en comparación con el procesador Genoa de AMD en el punto de referencia de gradientes conjugados de alto rendimiento (HPCG), y utilizó menos energía. Un favorito de HPC, el procesador escalable Intel Xeon de 4.ª generación, proporcionó una aceleración media del 50 % con respecto al Milan4 de AMD. El clúster HPC Xeon de cuarta generación más nuevo de BP mostró un aumento de 4 veces en el rendimiento con respecto a su procesador de la generación anterior con una eficiencia energética mejorada. El acelerador de aprendizaje profundo Gaudi8 se desempeñó de manera competitiva en aprendizaje profundo, capacitación e inferencia, con un rendimiento hasta 2 veces más rápido que el A2.4 de NVIDIA.
CPU de última generación y GPU optimizadas para IA
Jeff McVeigh de Intel, vicepresidente corporativo de Intel y gerente general del Super Compute Group, presentó las CPU de próxima generación de Intel diseñadas para satisfacer las demandas de ancho de banda de memoria alta. Intel desarrolló un nuevo tipo de DIMM (Multiplexor Combined Ranks (MCR)) para Granite Rapids. MCR alcanza velocidades de 8,800 megatransferencias por segundo basadas en DDR5 y más de 1.5 terabytes/segundo (TB/s) de capacidad de ancho de banda de memoria en un sistema de dos zócalos.
Intel también reveló un nuevo subsistema basado en GPU x8 Max Series optimizado para IA de Supermicro, diseñado para acelerar el entrenamiento de aprendizaje profundo. Se espera que los OEM ofrezcan soluciones con subsistemas OAM x4 y x8 de GPU de la serie Max y tarjetas PCIe en algún momento de este verano.
La GPU de próxima generación de la serie Max de Intel, Falcon Shores, brindará a los clientes la flexibilidad de implementar CPU a nivel de sistema y combinaciones de GPU discretas para las cargas de trabajo nuevas y en constante cambio del futuro. El sistema Falcon Shores utiliza una arquitectura modular basada en mosaicos que le permite:
- Admite tipos de datos HPC y AI de FP64 a BF16 a FP8.
- Habilite hasta 288 GB de memoria HBM3 con un ancho de banda total de hasta 9.8 TB/s y E/S de alta velocidad muy mejorada.
- Potencie el modelo de programación CXL.
- Presente una interfaz de programación de GPU unificada a través de oneAPI.
IA generativa para la ciencia
El Laboratorio Nacional de Argonne, en colaboración con Intel y HPE, anunció planes para crear una serie de modelos generativos de IA para la comunidad de investigación científica. Estos modelos generativos de inteligencia artificial para la ciencia se entrenarán en texto general, código, textos científicos y datos científicos estructurados de biología, química, ciencia de los materiales, física, medicina y otras fuentes.
Los modelos resultantes (con hasta 1 billón de parámetros) se utilizarán en una variedad de aplicaciones científicas, desde el diseño de moléculas y materiales hasta la síntesis de conocimiento a través de millones de fuentes para sugerir nuevos y emocionantes experimentos en biología de sistemas, química de polímeros. y materiales energéticos, climatología y cosmología. El modelo también se utilizará para acelerar la identificación de procesos biológicos relacionados con el cáncer y otras enfermedades y sugerir objetivos para el diseño de fármacos.
Para avanzar en el proyecto, Argonne encabeza una colaboración internacional que incluye:
- Intel
- HPE
- Laboratorios del Departamento de Energía
- Universidades estadounidenses e internacionales
- Organizaciones sin fines de lucro
- Socios internacionales
Se espera que Aurora ofrezca más de dos exaflops de rendimiento informático máximo de doble precisión cuando se lance este año.
Beneficios de oneAPI Aplicaciones de HPC
Las herramientas Intel oneAPI más recientes ofrecen aceleraciones para aplicaciones HPC con descarga de GPU OpenMP, amplían el soporte para OpenMP y Fortran, y aceleran la IA y el aprendizaje profundo a través de marcos optimizados, incluidos TensorFlow y PyTorch, y herramientas de IA, lo que permite mayores mejoras en el rendimiento.
La programación multiarquitectura es más fácil para los programadores a través de la implementación SYCL de oneAPI, los complementos de oneAPI para los procesadores NVIDIA y AMD desarrollados por Codeplay, y la herramienta de compatibilidad Intel DPC++ que migra el código de CUDA a SYCL y C++, donde el 90-95 por ciento del código suele migrar automáticamente. . El código SYCL resultante muestra un rendimiento comparable con el mismo código que se ejecuta en lenguajes de sistemas nativos de NVIDIA y AMD. Los datos muestran que el código SYCL para la aplicación de astrofísica DPEcho que se ejecuta en la GPU de la serie Max supera al mismo código CUDA en NVIDIA H100 en un 48 por ciento.
Interactuar con StorageReview
Boletín informativo | Canal de YouTube | Podcast iTunes/Spotify | @Instagram | Twitter | @TikTok | RSS Feed