Samsung Electronics intensifica su apuesta en el competitivo mercado de las memorias de alto rendimiento (HBM), con un enfoque particular en la innovación y el superar las expectativas del sector. Según diversas fuentes surcoreanas, como EBN, la compañía surcoreana está en pleno proceso de rediseño de su avanzado modelo HBM3E 12H de 36 GB. El objetivo es claro: lograr la validación de NVIDIA antes de lo inicialmente planeado, teniendo como meta el mes de mayo de este año.
Este esfuerzo se centra en la HBM3E 12H, que se proyecta como la memoria HBM de mayor capacidad disponible en el mercado actual. Con una estructura compuesta por 12 capas y una capacidad asombrosa de 36 GB, esta memoria ofrece un ancho de banda que alcanza hasta 1.280 GB/s. Estos números representan un avance superior al 50% en comparación con la HBM3 8H de ocho capas. Estos significativos aumentos en capacidad y rendimiento son cruciales para satisfacer las crecientes demandas de aplicaciones de inteligencia artificial (IA) de última generación, que requieren optimización en velocidad, eficacia energética y capacidad.
La innovación en la HBM3E 12H se basa en la integración de la tecnología TC NCF, una película no conductora de compresión térmica. Esta tecnología permite mantener una altura física constante respecto a versiones previas, incluso al añadir capas adicionales. Al mismo tiempo, se optimiza la disipación térmica y se mejora la consistencia en el rendimiento de las unidades.
No obstante, uno de los mayores retos para Samsung está en lograr la validación por parte de NVIDIA. Aunque ya se han entregado muestras de la nueva memoria, estas no lograron cumplir inicialmente con los estándares de rendimiento requeridos por la compañía norteamericana. Ante esta situación, Samsung optó por un rediseño acelerado de su producto, con miras a cumplir con los requisitos de uno de los líderes en aceleradores de IA. De conseguir la validación en mayo como se espera, la producción en masa podría comenzar en el primer semestre de 2025, lo que permitiría a Samsung competir directamente con las ofertas de SK hynix y Micron.
NVIDIA, conocido por utilizar memorias HBM en su línea de GPU para centros de datos, verá en esta validación una oportunidad para potenciar aún más sus capacidades de procesamiento en entornos de IA. Mejores capacidades y un mayor ancho de banda en las memorias podrían traducirse en un rendimiento más eficaz en el entrenamiento de modelos de lenguaje, procesamiento de IA y en entornos de computación de alto rendimiento (HPC).
Además, Samsung ya está planificando el futuro con el desarrollo de la próxima generación de memorias HBM4, utilizando su nuevo proceso de fabricación 1c. Aunque inicialmente se esperaba que estuviera lista para finales de 2024, el cronograma se ha ajustado con una nueva fecha estimada para junio de 2025. Todo esto subraya la importancia del segundo trimestre de este año para Samsung, que busca reafirmar su liderazgo en un mercado dominado por la demanda de soluciones avanzadas para IA generativa y computación en la nube.