Inicio Tecnología Red Hat AI 3 Revoluciona la Producción con Inferencia Distribuida: Plataforma Abierta...

Red Hat AI 3 Revoluciona la Producción con Inferencia Distribuida: Plataforma Abierta para Agentes, Kubernetes y Aceleradores

0

Red Hat, una de las principales compañías en tecnologías de código abierto, ha dado un nuevo impulso a la inteligencia artificial (IA) en el ámbito empresarial con el lanzamiento de Red Hat AI 3. Esta plataforma representa una evolución significativa al integrar Red Hat AI Inference Server, RHEL AI y OpenShift AI. El objetivo de esta iniciativa es enfrentar el gran desafío de 2025: operativizar la inferencia a escala y facilitar la transición de pruebas de concepto a producción sin tener que reformar la infraestructura existente.

La propuesta de Red Hat se sostiene sobre tres pilares fundamentales: la inferencia distribuida nativa en Kubernetes, una experiencia de plataforma unificada y una base sólida para la IA agéntica, apoyándose en APIs y estándares abiertos. Este movimiento tiene lugar en un momento crucial en el que las organizaciones cambian el foco del entrenamiento a la inferencia masiva en tiempo real y los agentes inteligentes, mientras que los CIOs buscan reducir latencia, costes y complejidades sin sacrificar privacidad o libertad en la elección de hardware.

El informe del MIT, proyecto NANDA, revela que el 95 % de las empresas no ha logrado aún retornos significativos pese a un gasto acumulado de 40 mil millones de dólares. Con Red Hat AI 3, la compañía busca cerrar esta brecha ofreciendo una plataforma abierta y multivendor que admita cualquier modelo en cualquier acelerador, desde centros de datos hasta nubes públicas, entornos soberanos y edge.

Una de las innovaciones técnicas más notables es llm-d, ahora disponible en OpenShift AI 3.0. Este sistema reimagina el servicio de los Modelos de Lenguaje de Gran Tamaño (LLM) en Kubernetes, ofreciendo inferencia distribuida e inteligente, integración con herramientas de NVIDIA y AMD, y rutas prescriptivas para despliegue estandarizado.

Red Hat AI 3 también presenta una plataforma unificada que permite a los equipos de ingeniería e IA colaborar de manera más efectiva, integrando Model as a Service (MaaS), AI Hub y Gen AI Studio. Esto facilita la gestión de modelos, exploración, despliegue y prototipado dentro de un entorno centralizado y seguro.

Además, la plataforma se prepara para la llegada de la IA agéntica con la introducción de una capa API unificada basada en Llama Stack y la adopción temprana de MCP (Model Context Protocol). Estas herramientas son clave para la interacción segura y estandarizada de modelos con herramientas externas, lo cual es esencial para el desarrollo de agentes autónomos.

Para los CIOs y equipos de plataforma, Red Hat AI 3 transforma la inferencia de un servicio puntual a una capacidad compartida dentro del cluster, agnóstica al tipo de acelerador y optimizada para costes y latencia. Esto respalda el cumplimiento normativo y la soberanía de datos al poder desplegarse en diversos entornos, desde data centers hasta la nube pública.

En cuanto a alianzas, AMD y NVIDIA ya han manifestado su apoyo a la estrategia multivendor de Red Hat, destacando compatibilidad y optimización para sus respectivos aceleradores. Clientes como ARSAT han resaltado los beneficios de soberanía de datos y rapidez en el tiempo de respuestas.

El éxito de Red Hat AI 3 estará en convertir la inferencia en un proceso rutinario y predecible, comparable al despliegue de microservicios, logrando de esta manera el retorno de inversión que tanto busca el mundo empresarial. Con estos cambios, Red Hat está apostando por una normalización de la IA en las empresas, preparándose para los desafíos del futuro inmediato en el ámbito de la inteligencia artificial.

Salir de la versión móvil