Google y Microsoft Aceleran: Priorizan la Velocidad sobre el Costo en la Carrera por Espacio en la Nube

4
minutos de tiempo de lectura
CommScope Revoluciona SYSTIMAX Constellation Energia y Datos Integrados con Fibra

La nueva fiebre del oro en el ámbito tecnológico no está en las unidades de procesamiento gráfico (GPU), sino en la memoria avanzada, según señalan múltiples informes del sector. El desajuste entre la oferta y la demanda de memorias DRAM y HBM para grandes centros de datos ha desencadenado reacciones distintas entre los proveedores de servicios en la nube (CSP, por sus siglas en inglés). Un ejemplo es el de conglomerados estadounidenses como Google y Microsoft, quienes optan por priorizar la velocidad de entrega y la disponibilidad sobre los costos, aun si eso implica asumir sobrecostes por asegurar un suministro preferente.

La escasez de memoria se enmarca en la creciente carrera por desarrollar inteligencia artificial (IA), donde la demanda de memorias de alto rendimiento se ha disparado. La popularidad de la IA generativa y los modelos de gran tamaño exigen cada vez más HBM para GPUs y DDR5 en servidores. Esto ha motivado a los principales fabricantes como Samsung, SK hynix, y Micron a centrar su producción en estos productos premium, sacrificando la disponibilidad de memorias más económicas y convencionales.

Este contexto ha creado un mercado tenso, favoreciendo el suministro a servidores sobre dispositivos de consumo como PCs. Algunas empresas están acumulando módulos de forma agresiva, mientras que los precios de DDR5 y HBM han visto aumentos significativos, especialmente en módulos de alta capacidad.

Dentro de EE.UU., se destacan estrategias contrastantes entre los hyperscalers. Google y Microsoft han aceptado pagar primas significativas para garantizar entregas rápidas y sustanciales, un movimiento que busca mitigar la amenaza de que las costosas GPUs de gama alta queden infrautilizadas debido a la falta de memoria adecuada. Para estos gigantes, el costo adicional de la memoria es un gasto menor en comparación con el valor estratégico de seguir lanzando productos de IA rápidamente y asegurar contratos empresariales ventajosos.

Por otro lado, algunos CSPs optan por enfoques más conservadores, controlando costos mediante la diversificación de proveedores o combinando diferentes generaciones de módulos. Si bien esta estrategia reduce la presión inmediata sobre su CAPEX, también los coloca en una posición vulnerable ante futuros incrementos de precios y puede minar su competitividad frente a los hyperscalers.

Los fabricantes de memoria juegan un papel crucial en este escenario. Samsung y SK hynix, en particular, se apresuran a implementar nuevas fases de producción y desarrollar nodos más avanzados, enfocándose en reforzar su control sobre tecnologías HBM3E y los futuros HBM4 destinados a mejorar los centros de datos de IA. Esto, no obstante, implica mayores inversiones en fábricas dedicadas a la IA, con menos atención a las memorias convencionales, lo que incrementa las tensiones de precios a lo largo de la cadena.

El impacto en el mercado de la nube y la IA es evidente. En el corto plazo, los consumidores experimentarán un aumento en los costos de las instancias de GPU y los nodos de alta memoria, mientras que las startups y empresas más pequeñas podrían enfrentar dificultades para acceder a recursos de IA avanzados a precios competitivos.

A mediano plazo, es probable que estas tensiones estimulen el desarrollo de alternativas más eficientes en memoria y soluciones especializadas, llevando al mercado de vuelta hacia soluciones on-premise. Además, se prevé un incremento en los movimientos regulatorios y geopolíticos relacionados con la producción y distribución de chips, con actores clave como EE.UU., Europa, Corea y Taiwán.

A pesar de que Google y Microsoft estén priorizando la velocidad sobre el costo ahora, esto no significa que la cuestión del precio desaparezca; simplemente han tomado la decisión de que, en esta competencia por la IA, es crucial llegar primero y capturar mercado. La verdadera incógnita es cuánto tiempo podrán sostener esta dinámica, y si con el tiempo, esta apuesta por precios elevados se revelará como un movimiento estratégico para dominar la próxima década de innovación en computación en la nube. Mientras tanto, en la economía emergente de la IA, disponer de memoria se traduce directamente en poder, y aquellos dispuestos a pagar por este recurso definirán el ritmo de la próxima ola de innovación.

TE PUEDE INTERESAR

Google y Microsoft Aceleran: Priorizan la Velocidad sobre el Costo en la Carrera por Espacio en la Nube — Andalucía Informa