Durante años, el enfoque en el rendimiento de la inteligencia artificial ha estado dominado por la potencia de cálculo, requiriendo más unidades de procesamiento gráfico (GPUs), núcleos y operaciones de punto flotante por segundo (FLOPs). Sin embargo, con el crecimiento y la paralelización de los modelos, el papel crucial de la memoria está emergiendo como el verdadero cuello de botella, determinando tanto el rendimiento de los clústeres como su costo operativo. En este contexto, la atención se centra ahora en el acceso a una memoria con muy alto ancho de banda y baja latencia.
Actualmente, la High Bandwidth Memory (HBM) ha establecido el estándar al proporcionar un ancho de banda elevado con mejor eficiencia energética. Diseñada con tecnología de empaquetado avanzada, su capacidad para mover datos es vital tanto en el entrenamiento como en la inferencia de modelos de IA. No obstante, la fabricación de HBM es costosa y dependiente de pocos proveedores, lo que afecta los precios y la disponibilidad, especialmente en un entorno donde la IA impulsa la demanda.
Frente a estos desafíos, emerge Z-Angle Memory (ZAM), una propuesta innovadora desarrollada por Intel en colaboración con SAIMEMORY, parte de SoftBank. Con el objetivo de ofrecer una alternativa a HBM, ZAM promete duplicar o triplicar la capacidad de HBM, reducir el consumo energético a la mitad y mantener costos comparables o menores. Esta alianza planea iniciar el desarrollo en 2026, con prototipos previstos para 2027 y un despliegue escalable hacia 2030.
La tecnología ZAM se caracteriza por su apilamiento vertical, aumentando la densidad y el rendimiento en múltiples capas, lo que contrasta con la expansión horizontal tradicional. SoftBank ya ha anunciado una inversión de 3.000 millones de yenes para llevar a cabo la fase de prototipo. Las expectativas son ambiciosas: reducir el consumo un 40-50% y acercar los costos de fabricación al 60% de los de HBM.
La propuesta de ZAM no solo es innovadora por su memoria DRAM, sino también por su integración avanzada. Intel, con su experiencia en empaquetado, utilizará la tecnología Embedded Multi-die Interconnect Bridge (EMIB) para optimizar las interconexiones en arquitecturas apiladas, asegurando una comunicación eficiente entre chips apilados.
El futuro de ZAM como reemplazo de HBM no está asegurado, ya que la complejidad de su desarrollo y el tiempo de implementación sugieren cautela. A corto plazo, es más probable que sirva como un complemento en ciertos nichos, como servidores de IA pequeños y medianos donde el costo total es crucial, o en despliegues de computación en el borde, donde la eficiencia energética es prioritaria.
El movimiento de Intel y SoftBank redefine la competencia en el ecosistema de IA, donde la combinación de cómputo, memoria y energía se vuelve esencial para el éxito. Con la oferta de HBM estresada, cualquier avance hacia ZAM puede impulsar inversiones y diversificar estrategias de memoria, incluso antes de su disponibilidad masiva.
La industria ahora mira atentamente cómo se materializa esta apuesta, que promete redefinir las dinámicas del mercado de memoria para IA si logra cumplir con sus promesas de rendimiento, fiabilidad y coste. El camino es largo, pero el impacto de un competidor viable frente al dominio de HBM podría transformar tanto la arquitectura de los centros de datos como la viabilidad económica de la inteligencia artificial a gran escala.








