El avance de la inteligencia artificial y las nuevas generaciones de memoria HBM (High Bandwidth Memory) están llevando las necesidades energéticas de las GPU a niveles críticos. Según un informe del Instituto Avanzado de Ciencia y Tecnología de Corea (KAIST) y el laboratorio TERA, se anticipa una escalada sin precedentes en el consumo energético de los sistemas de computación de alto rendimiento.
La tecnología HBM3E ya permite a aceleradoras como la NVIDIA B300 y la AMD MI350 alcanzar 288 GB de memoria. En el próximo año, la HBM4 incrementará estas cifras a 384 GB para la serie Rubin de NVIDIA y a 432 GB para la serie MI400 de AMD. Sin embargo, las proyecciones para HBM5, HBM6 y HBM7 son aún más sorprendentes, alcanzando hasta 6 TB por aceleradora, un salto crucial para IA generativa, big data y simulaciones científicas.
El informe señala un aumento dramático en el consumo energético de las GPU para IA. La futura GPU NVIDIA Rubin tendrá un consumo de 800 W que se eleva a 2.200 W con la tarjeta completa. Las proyecciones indican que una GPU de 2035 podría superar los 15.000 W, lo que plantea un desafío significativo para los centros de datos.
Ante esta situación, surge la necesidad de infraestructuras energéticas propias, como centrales nucleares o renovables, para alimentar estos sistemas. El equivalente energético de una sola tarjeta de 15.000 W podría alimentar una vivienda media española durante varios días, haciendo imprescindible un replanteamiento hacia la eficiencia y sostenibilidad.
El informe finaliza con una advertencia sobre la viabilidad futura: si la tendencia continúa, cada centro de datos podría requerir su propia central eléctrica. La industria enfrenta el reto de balancear la demanda de potencia con la eficiencia y sostenibilidad, elementos clave para el futuro tecnológico.