La carrera por mejorar la eficiencia y escalabilidad de la computación para la Inteligencia Artificial sigue siendo la prioridad de los grandes proveedores de servicios de nube, quienes se están volcando hacia el uso de aceleradores a medida (ASIC) en lugar de depender exclusivamente de hardware estándar. La motivación detrás de este cambio radica en que, a medida que aumenta el volumen de inferencias, la eficiencia económica y energética se vuelve crucial. Así, los diseños específicos, como las TPU o aceleradores personalizados, resultan más atractivos frente a soluciones generalistas.
En este contexto, se espera que para 2026 se produzca un significativo aumento en los envíos de ASIC para la nube. Broadcom, en particular, ya está capturando diversos proyectos de producción a gran escala con múltiples proveedores de servicios cloud, mientras que compañías taiwanesas como MediaTek, Alchip y GUC están incorporando nuevos productos a producción masiva. La meta es clara: acelerar el despliegue de racks «ASIC-first» sin recurrir a los largos ciclos de actualización del hardware tradicional.
El cambio de foco no es solo una cuestión tecnológica, sino también económica. Según TrendForce, a partir del segundo semestre de 2025, el mercado estará más orientado hacia la inferencia servicio y los agentes de IA, lo cual reformulará la demanda hacia servidores generales que realicen tareas de pre/post-inferencia y almacenamiento. Este nuevo enfoque está reflejado en el crecimiento proyectado del gasto de capital (capex) de los cinco grandes CSP norteamericanos, que alcanzará un incremento interanual del 40% en 2026.
Por otro lado, la transición hacia una periferia dominada por ASIC también conlleva desafíos. Aunque se pronostica que los servidores de IA basados en estos aceleradores representarán el 27,8% de las unidades en 2026, las GPU seguirán liderando el mercado con un 69,7%. Google emerge como un líder en el uso de ASIC propios con sus TPU apoyando infraestructuras como Google Cloud Platform, y extendiendo su uso a clientes externos como Anthropic.
Sin embargo, se plantea un obstáculo crítico: la memoria. En los racks de IA actuales, la capacidad de cómputo depende del soporte de un ancho de banda suficiente y baja latencia. Se vuelve fundamental contar con DRAM de alto rendimiento y SSD empresariales para gestionar el flujo de datos eficazmente. La previsión de la demanda de servidores de IA y de almacenamiento empresarial señala un crecimiento sostenido del mercado de memoria hasta 2027, alcanzando un pico en ingresos en 2027 con 842.700 millones de dólares.
La escasez de memoria se ha convertido en el factor limitante principal. Con el futuro inmediato presionando la demanda, la consecución de recursos de memoria para 2026 se presenta como inestable. Como respuesta estratégica, los CSP y sus integradores buscan asegurar el suministro mediante contratos plurianuales y optimizar las arquitecturas para aliviar la presión sobre la memoria sin degradar los niveles de servicio.
En suma, el enfoque hacia un diseño más a medida y contratos a largo plazo está emergiendo como la solución para enfrentar esta escasez de recursos. Los desarrolladores de ASIC y sus socios se encuentran en un momento de crecimiento, pero la memoria y el almacenamiento surgen como factores decisivos, dictando el ritmo del despliegue de nuevas tecnologías en la industria de la nube para los años venideros.








