Radware ha dado un importante paso en la seguridad empresarial al introducir el LLM Firewall, diseñado específicamente para proteger las empresas que ya integran modelos de lenguaje (LLM) en sus productos y operaciones internas. Esta nueva tecnología busca detener ataques y abusos en el prompt, es decir, antes de que la solicitud llegue al modelo de IA, en un contexto donde la adopción de IA generativa se está acelerando, aumentando así los riesgos potenciales.
El LLM Firewall se ofrece como un complemento dentro de la suite Cloud Application Protection Services de Radware y representa la primera fase de una estrategia de protección más amplia orientada a escenarios «agentic AI», donde los agentes actúan de manera semiautónoma. Este enfoque se describe como agnóstico al modelo, lo que significa que está diseñado para integrarse sin interrumpir el despliegue y aplicaciones existentes.
Históricamente, los cortafuegos de aplicaciones web (WAF) han protegido las aplicaciones de ataques a nivel HTTP. Radware presenta su innovación como una evolución lógica al defender contra ataques en lenguaje natural que apuntan directamente a los modelos de lenguaje. Este tipo de amenazas incluyen inyecciones de prompts, jailbreaks y el abuso de recursos, todas con detección y bloqueo en tiempo real.
Esta nueva dirección se alinea con las tendencias emergentes en los departamentos de infraestructura y operaciones, donde la agentic AI es vista como una de las tendencias más influyentes para 2026. Esta tendencia está destacada junto con plataformas de gobernanza de IA y seguridad contra la desinformación, indicando que la innovación avanza más rápido que los métodos de control tradicionales.
La protección de datos sensibles, como información personal o confidencial, es otro aspecto clave que intenta abordar el LLM Firewall. Radware asegura que su tecnología puede detectar y bloquear intentos de exfiltración de datos antes de que lleguen al LLM del cliente, apoyándose en marcos regulatorios como el GDPR y el HIPAA.
El mercado está respondiendo rápidamente a estas necesidades, con empresas como Palo Alto Networks y Google Cloud también reforzando sus esfuerzos para asegurar desarrollos de IA en sus servicios. El consenso es claro: la innovación en IA debe ser segura, sin abrir nuevas puertas a fugas de datos o automatización maliciosa.
Para las empresas, adoptar un «firewall para prompts» es solo un componente en una estrategia de seguridad más compleja. Esta debería incluir un inventario claro de dónde se utilizan los LLMs, políticas de gestión de datos, controles estrictos de identidad y permisos, monitorización específica de actividad anormal y pruebas de seguridad mediante red teaming, enfocadas en detectar vulnerabilidades específicas de la IA.
Radware, con su LLM Firewall, busca llenar un vacío que muchas empresas están descubriendo de forma tardía: la seguridad de la inteligencia artificial no se resuelve únicamente con cortafuegos tradicionales ni con buenas prácticas de desarrollo. Requiere un liderazgo proactivo en la gobernanza del lenguaje y nuevas tácticas integradas en la ciberseguridad organizacional.








