AMD ha dado un paso significativo para transformar su visión de Helios, una plataforma destinada a revolucionar los centros de datos de Inteligencia Artificial, en una realidad tangible. La compañía ha anunciado una colaboración estratégica con Celestica, cuyo objetivo es llevar al mercado una arquitectura de rack innovadora y basada en estándares abiertos, ideal para grandes despliegues de IA. A través de este acuerdo, Celestica asumirá la investigación, diseño y fabricación de los conmutadores de interconexión interna del sistema, una parte crucial para cualquier infraestructura de IA de gran escala.
Lejos de ser un anuncio más en medio del creciente número de alianzas en el ámbito de la Inteligencia Artificial, Helios busca distinguirse mediante una propuesta integral que va más allá de vender GPU o CPU. AMD pretende ofrecer una arquitectura completa de rack para entrenamiento e inferencia, diseñada para un amplio abanico de contextos: desde nubes hasta empresas e investigación. La disponibilidad de esta plataforma para clientes está prevista para finales de 2026, lo que muestra la intención de la compañía de adelantarse a la próxima gran ola de infraestructuras de IA con una propuesta más integrada y abierta que la de muchos de sus competidores.
La plataforma Helios ha estado en desarrollo durante más de un año, desde que AMD la presentó en junio de 2025 como su solución de rack de próxima generación para IA. Basada en GPU Instinct de nueva generación, CPU EPYC “Venice” y NIC Pensando “Vulcano”, Helios también se ha asociado al formato Open Rack Wide promovido por Meta en el Open Compute Project. Para enero de 2026, AMD ya había definido Helios como el modelo de una infraestructura destinada a alcanzar hasta 3 exaflops de IA por rack, un salto considerable hacia la industrialización de esta tecnología.
Celestica, por su parte, jugará un rol crucial aunque menos visible en esta colaboración. Como parte del proyecto, desarrollará switches de scale-up basados en el formato OCP Open-Rack-Wide, utilizando tecnologías avanzadas para interconectar las GPU AMD Instinct MI450 Series con mayor velocidad. Estos avances buscan resolver uno de los grandes desafíos de los sistemas de IA modernos: la interconexión interna del rack, donde la eficiencia y la velocidad de comunicación entre los componentes son fundamentales.
AMD apuesta por competir en el ámbito de la IA ofreciendo no solo productos individuales, sino toda una arquitectura de rack. A través de alianzas previas con Oracle y HPE, la compañía ha posicionado Helios como la base para despliegues concretos, con Oracle anunciando la integración de Helios en sus futuros superclusters de IA y HPE planeando implementación de sistemas avanzados capaces de lograr hasta 2,9 exaflops FP4 por rack.
El anuncio con Celestica subraya la importancia de construir un ecosistema rack-scale que sea repetible y adaptable a diversos entornos, evitando depender de arquitecturas propietarias. Este enfoque es respaldado por la adopción del formato Open Rack Wide, el cual permite una infraestructura interoperable y escalable que se adapta a las necesidades contemporáneas de potencia, refrigeración y mantenimiento.
La colaboración entre AMD y Celestica promete abordar la complejidad y los riesgos asociados al despliegue de sistemas de IA avanzados mediante una narrativa sólida y una visión compartida de futuro en el ámbito de la inteligencia artificial de gran escala. A pesar de que Helios aún está en fases de desarrollo, esta alianza es un indicativo claro de que AMD está avanzando firmemente hacia la materialización de su plataforma.








