La integración de aplicaciones de inteligencia artificial (IA) generativa en el ámbito empresarial ha evolucionado hacia una etapa más avanzada y arriesgada. Las aplicaciones actuales ya no se limitan únicamente a tareas como la redacción de textos o la síntesis de reuniones, sino que ahora cuentan con agentes que interactúan con datos internos, utilizan herramientas externas y toman decisiones en procesos empresariales concretos. Este avance ha generado nuevos retos en el ámbito de la seguridad, donde los riesgos son cada vez más significativos.
Un informe reciente de Gartner advierte que, para 2028, el 25% de todas las aplicaciones empresariales basadas en IA generativa experimentará al menos cinco incidentes de seguridad menores cada año, un aumento considerable respecto al 9% proyectado para 2025. Para 2029, se estima que el 15% de estas aplicaciones sufrirá al menos un incidente grave anual, una cifra que contrasta fuertemente con el 3% previsto para 2025.
La creciente adopción de la IA agéntica, junto con el uso del Model Context Protocol (MCP), un estándar abierto para conectar modelos con fuentes de datos y herramientas externas, ha sido identificada como una de las principales fuentes de riesgo. Aunque MCP facilita la interoperabilidad y flexibilidad, la seguridad no ha sido una prioridad inherente en su diseño, lo que lo convierte en un foco potencial de vulnerabilidades. Así, situaciones cotidianas pueden convertirse en oportunidades para la fuga de datos, el escalamiento de privilegios no deseado o automatizaciones peligrosas.
La clave del problema radica en la manera en que estos agentes se conectan e interactúan con diferentes sistemas y datos. La integración de documentación sensible, sistemas CRM y servicios de terceros en una única aplicación aumenta significativamente las posibilidades de incidentes de seguridad, dado que combina acceso a datos sensibles, contenido de confianza dudosa y capacidad de comunicación externa. Gartner describe esta combinación potencialmente peligrosa como una «zona prohibida».
No se trata de una amenaza teórica. El propio protocolo MCP reconoce los riesgos que introduce y aconseja el diseño de procesos de consentimiento y autorización robustos. Además, es fundamental aplicar controles de acceso adecuados y fomentar la privacidad desde el diseño. La advertencia de Gartner subraya la necesidad de un enfoque más riguroso en la gobernanza de estas tecnologías, abogando por la implementación de medidas de autenticación y autorización específicas para agentes y por un control más eficiente sobre los componentes externos que integran estas soluciones.
Un ejemplo de los riesgos más característicos de este contexto es la inyección de comandos o «prompt injection», tal como lo define OWASP. Este riesgo implica la manipulación de respuestas del modelo a través de entradas diseñadas para modificar su comportamiento, lo que podría llevar a la ejecución de acciones no deseadas o la exposición de datos sensibles.
Ante este panorama, Gartner sugiere que las empresas deben ajustar las disciplinas de seguridad, estableciendo revisiones formales, límites claros y arquitecturas basadas en la concesión de privilegios mínimos. La clave es que el control nazca desde el diseño del dominio funcional, en lugar de ser un añadido tardío por parte del equipo de seguridad.
La integración de la IA en los procesos operativos no significa que las organizaciones deban detener su avance tecnológico, pero es crucial hacerlo con mayor precaución y previsión. Conforme la IA agéntica se interconecta cada vez más con funciones críticas, el desafío de mantener la seguridad y cumplir con las normativas se convierte en un objetivo vital para evitar incidentes graves y costosos en el futuro.








