Tarjetas gráficas

AMD Instinct MI250 mejora el rendimiento de la IA con PyTorch 2.0 y ROCm 5.4 1ze59

6e2u6w

AMD Instinct MI250 está recibiendo una importante mejora de rendimiento en inteligencia artificial con PyTorch 2.0 y ROCm 5.4. 2g304k

AMD Instinct MI250 mejora su rendimiento en la IA 6l343f

La tarjeta aceleradora de AMD se estaría acercando al desempeño de las GPUs de Nvidia en términos de entrenamiento LLM.

El blog oficial de MosaicML está mostrando como PyTorch 2.0 y ROCM 5.4 están mejorando el rendimiento de las GPUs AMD Instinct MI250 para centros de datos de AMD, unas mejoras que llegan sin necesidad de hacer cambios en el código. Los últimos lanzamientos han permitido a MosaicML sacar un mayor provecho de las GPUs AMD Instinct con el uso de su LLM Foundry Stack.

El proveedor de software MosaicML ofrece soporte mejorado para el entrenamiento ML y LLM para las soluciones de Nvidia y AMD que iten precisión de 16 bits (FP16 / BF16).

Por supuesto, se realizaron pruebas de rendimiento para comparar el desempeño del Instinct MI250 frente a las dos variantes de Nvidia A100, que cuentan con 40 GB y 80 GB. Por lo que podemos observar, el MI250 pudo alcanzar un 80% del rendimiento de la A100 de 40 GB y un 73% del rendimiento de la variante de 80 GB. Aquí hay que tener en cuenta que el MI250 puede escalar en hasta 4 aceleradoras, mientras que el A100 puede escalar con hasta 8, por lo que Nvidia tenía ventaja.

Debemos tener en cuenta el MI250 es más rápida que el A100 en términos de rendimiento FP16 (sin sparsity), tiene más capacidad de memoria y mayor ancho de banda con sus 128 GB HBM2e. Por lo tanto, es una aceleradora que tiene un mayor margen de mejora.

Te recomendamos nuestra guía sobre las mejores tarjetas gráficas del mercado

AMD ya está preparando sus aceleradoras Instinct MI300, que van a estar especialmente diseñadas para la aceleración de trabajos HPC y de IA, por lo que podemos esperar un gran avance en términos de rendimiento para estas tareas. AMD ya demostró como el MI300 es capaz de gestionar un modelo LLM con 40.000 millones de parámetros en una única solución, muy superior a las pruebas vistas aquí con parámetros entre 1.000 millones y 13.000 millones.

Sabemos que el MI300 va a contar con una capacidad de 192 GB de memoria HBM3, que será importante para AMD y su objetivo de coger parte del pastel de la IA, que Nvidia posee en un 90%.

Recent Posts 71g12

  • Videoconsolas

Nintendo Switch 2: vulnerabilidad detectada desde el primer día 6a7363

El lanzamiento de la Nintendo Switch 2 ha sido motivo de gran expectación entre los…

2 horas atrás
  • Tarjetas gráficas

RTX 5060 vs RTX 4060 Ti: ¿Cuál debo comprarme para jugar en 2K? g5w2z

Os traemos esta comparativa entre la RTX 5060 vs RTX 4060 Ti. ¿Merece la pena…

2 horas atrás
  • Reviews

MSI Roamii BE Lite Mesh Review en Español (Análisis completo) 4m3g1f

MSI Roamii BE Lite Mesh es el nuevo sistema de router Mesh Wi-Fi 7 económico…

3 horas atrás