Anthropic ha realizado un movimiento estratégico clave en el ámbito de la infraestructura de inteligencia artificial, al firmar un acuerdo con Google y Broadcom que le asegura varios gigavatios de capacidad de TPUs de nueva generación. Esta capacidad de cómputo comenzará a operar en 2027 y se destinará al entrenamiento y funcionamiento de los futuros modelos Claude. En un mercado cada vez más dependiente de la disponibilidad de chips, energía y centros de datos, garantizar la infraestructura a largo plazo es tan crucial como el lanzamiento de nuevos modelos.
Este anuncio coincide con una impresionante proyección financiera: Anthropic ha reportado un run-rate revenue que supera los 30.000 millones de dólares, en comparación con los 9.000 millones al cierre de 2025. Además, ha duplicado su base de clientes empresariales que gastan más de 1 millón de dólares al año, alcanzando más de 1.000 clientes. Aunque el run-rate refleja proyecciones y no ingresos confirmados, indica una aceleración comercial significativa.
La competencia en el sector de IA ha evolucionado, pasando de centrarse únicamente en el desarrollo de modelos a involucrar una auténtica batalla por el suministro de megavatios. Entrenar y servir modelos avanzados requiere acceso estable a aceleradores de última generación, interconexión, refrigeración, y una fuente de electricidad constante y potente. Con la apuesta por múltiples gigavatios, Anthropic invierte en una infraestructura energética e industrial decisiva para el futuro competitivo de Claude.
Este acuerdo también diversifica significativamente el mapa de hardware de Anthropic, que actualmente utiliza AWS Trainium, Google TPUs y NVIDIA GPUs, permitiendo asignar las cargas de trabajo al chip más adecuado. Esta estrategia no solo optimiza costes y disponibilidad, sino que también reduce la dependencia de una sola cadena de suministro, proporcionando una flexibilidad poco común en el sector.
A pesar de este nuevo acuerdo, Anthropic no rompe lazos con Amazon; AWS sigue siendo su proveedor cloud predominante y socio principal de entrenamiento. Este acuerdo crea una arquitectura de suministro más amplia con AWS como base central, TPUs de Google para escala, y NVIDIA como parte crítica, facilitando una operativa más eficiente y versátil.
Claude mantiene su posición destacada como modelo frontier al estar disponible en las principales plataformas cloud: Amazon Web Services, Google Cloud y Microsoft Azure. Esta presencia multicloud no solo incrementa su distribución, sino que también simplifica la adopción para empresas que operan en diversos entornos, haciendo de Anthropic no solo un proveedor de IA, sino un integrador crucial en la infraestructura empresarial existente.
El anuncio de Anthropic trasciende intención de crecimiento inmediato; es una maniobra para asegurar participación futura a partir de 2027. Esta reserva anticipada de capacidad es una respuesta a la creciente dependencia de la IA avanzada en contratos a largo plazo y planificación industrial a gran escala. Con un compromiso de inversión notable en infraestructura computacional estadounidense, Anthropic se posiciona no solo como desarrollador de modelos, sino como un actor relevante en la planificación industrial del sector.
En un contexto donde el foco suele estar en lanzamientos y demostraciones, Anthropic recuerda que el futuro de los modelos de IA se definirá tanto en laboratorios como en la capacidad de asegurar contratos eléctricos, fábricas de chips y planificación de infraestructura a gran escala. Con esta estrategia, Anthropic refuerza su posición para competir no solo por la calidad del modelo, sino también por la infraestructura difícil de replicar, asegurándose un lugar privilegiado en la carrera a largo plazo por la inteligencia artificial avanzada.








