Inicio Tecnología AMD Revoluciona el Rendimiento en IA con sus Nuevas Aceleradoras Instinct MI325X

AMD Revoluciona el Rendimiento en IA con sus Nuevas Aceleradoras Instinct MI325X

0

AMD ha dado un paso significativo hacia el futuro de las infraestructuras de inteligencia artificial con el anuncio de nuevas soluciones tecnológicas bajo sus marcas AMD Instinct y AMD Pensando. Entre las propuestas más destacadas se encuentran las aceleradoras AMD Instinct MI325X, la NIC AMD Pensando Pollara 400 y la DPU AMD Pensando Salina, todas diseñadas para establecer un nuevo estándar en rendimiento para modelos de IA y centros de datos de última generación.

En el corazón de estas innovaciones, las aceleradoras AMD Instinct MI325X prometen un rendimiento y eficiencia excepcionales. Basadas en la arquitectura AMD CDNA 3, están optimizadas para tareas de inteligencia artificial, como el entrenamiento y la inferencia de modelos avanzados. Estas aceleradoras introducen una capacidad de memoria y ancho de banda líderes en la industria, con 256 GB de HBM3E que admiten transferencias de hasta 6,0 TB/s, posicionándolas por delante de sus competidores.

Este impulso en el rendimiento también se refleja en un aumento notable en tareas de inferencia con modelos como Mistral 7B y Llama 3.1 70B, superando significativamente las capacidades de la generación anterior. Se espera que las MI325X entren en producción a finales de 2024 y que se integren en sistemas de grandes proveedores como Dell Technologies y Hewlett Packard Enterprise a partir del primer trimestre de 2025.

Paralelamente, AMD ha revelado la generación siguiente de aceleradoras, las AMD Instinct MI350, que prometen un aumento de rendimiento 35 veces superior en inferencia comparado con sus predecesoras. Estas aceleradoras continuarán marcado tendencia con hasta 288 GB de memoria HBM3E, estando disponibles en la segunda mitad de 2025.

En el área de redes de IA, AMD no se queda atrás con sus soluciones AMD Pensando, innovadoras tanto para el front-end como el back-end de redes de IA. La DPU AMD Pensando Salina destaca por duplicar el rendimiento y la escala de su predecesora, mientras que la NIC AMD Pensando Pollara 400 se posiciona como la primera en su sector preparada para el Ultra Ethernet Consortium.

Con un enfoque en la integración y eficiencia, estas nuevas tecnologías buscan maximizar la utilización de CPU y aceleradoras en infraestructuras de inteligencia artificial, prometiendo un equilibrio perfecto entre rendimiento, escalabilidad y seguridad.

Finalmente, el avance no solo se limita al hardware. AMD continúa mejorando su software de inteligencia artificial con el entorno de software abierto AMD ROCm, que ahora incluye capacidades avanzadas para AI generativa y ofrece soporte ampliado para modelos y marcos populares como PyTorch y Hugging Face. Con la última versión ROCm 6.2, se han logrado mejoras significativas en rendimiento, lo que refuerza aún más la capacidad de AMD para mantenerse a la vanguardia en la carrera tecnológica hacia la inteligencia artificial a gran escala.

Salir de la versión móvil