La Evolución de NVIDIA Vera Rubin: De GPU a Pionera en Inteligencia Artificial Agéntica

3
minutos de tiempo de lectura
La Evolucion de NVIDIA Vera Rubin De GPU a Pionera

NVIDIA ha reconfigurado el horizonte de la inteligencia artificial (IA) con el lanzamiento de su nueva plataforma en el GTC 2026. Dejará de lado la noción de una sola GPU poderosa para adoptar un enfoque integral con su innovadora plataforma Vera Rubin. Este desarrollo es mucho más que un avance en la potencia de cómputo; representa un cambio en la estrategia hacia una infraestructura completa diseñada para enfrentar todas las etapas de la IA moderna, desde el entrenamiento hasta la inferencia agéntica en tiempo real.

La plataforma Vera Rubin no es una simple mejora tecnológica. Conformada por un complejo conjunto de siete chips y cinco tipos de racks, actúa como un «superordenador» que se centra en el preentrenamiento, postentrenamiento, escalamiento durante el tiempo de prueba e inferencia agéntica. Esto marca un giro hacia una solución más ambiciosa y pragmática, en la que cada componente, desde CPUs hasta GPUs y LPUs, desempeña un papel específico. Se trata de un reconocimiento explícito de que la IA agéntica demanda algo más que la mera acumulación de potencia de procesamiento en una GPU.

Uno de los componentes más destacados de esta plataforma es el Vera Rubin NVL72, un rack que combina 72 Rubin GPUs y 36 Vera CPUs, interconectadas a través de tecnologías avanzadas como NVLink 6 y SuperNIC ConnectX-9. NVIDIA asegura que esta arquitectura permite entrenar modelos de mezcla de expertos con una eficiencia sin precedentes, prometiendo un throughput de inferencia por vatio significativamente mayor y un coste por token reducido. Estas afirmaciones, de momento, provienen de la propia compañía, y están pendientes de verificación independiente.

Un componente fundamental es el Vera CPU Rack, diseñado para manejar a gran escala los entornos donde operan los agentes de IA y los sistemas de learning reinforcement. Este nuevo enfoque presenta a NVIDIA como un jugador clave en la orquestación de sistemas complejos que requieren un enfoque más CPU-intensivo, enriqueciendo así el sustrato técnico necesario para operar modelos que van más allá de simples respuestas a prompts.

La asociación con Groq añade un nuevo nivel de sofisticación. El rack de inferencia Groq 3 LPX, que alberga 256 procesadores LPU, está diseñado para trabajar en tándem con las GPUs para mejorar la velocidad y eficiencia en la fase de decode de modelos complejos. La promesa de NVIDIA es una mejora significativa en el throughput de inferencia, lo que podría transformar la rentabilidad de modelos masivos.

En cuanto al almacenamiento y la red, la integración de BlueField-4 STX y Spectrum-6 SPX Ethernet transforma estos elementos en componentes esenciales del diseño, no simples adiciones. Estos avances buscan optimizar la memoria contextual y la eficiencia de la red, aspectos críticos para las operaciones en una fábrica de IA. La inclusión de tecnologías como DSX Max-Q y DSX Flex refleja el compromiso de NVIDIA con la eficiencia energética y la adaptabilidad de la infraestructura.

La plataforma Vera Rubin estará disponible desde la segunda mitad de 2026 a través de un amplio ecosistema de socios que incluye proveedores de nubes públicas, fabricantes de servidores y laboratorios de IA avanzados. Aunque queda por ver cómo se traducirán estas innovaciones en el rendimiento real fuera de las demostraciones y si el mercado aceptará esta evolución estratégica, lo que es evidente es que NVIDIA está marcando un precedente en la visión de la infraestructura de la IA agéntica a escala industrial.

TE PUEDE INTERESAR

La Evolución de NVIDIA Vera Rubin: De GPU a Pionera en Inteligencia Artificial Agéntica — Andalucía Informa