Las amenazas internas, un desafío perenne para los responsables de ciberseguridad, enfrentan un nuevo y potencialmente más complejo rival: la inteligencia artificial autónoma. En su último informe, Proofpoint advierte que los copilotos basados en inteligencia artificial tienen el potencial de superar a los propios empleados como principales fuentes de filtraciones de información este año.
Cada vez más, las organizaciones han comenzado a incorporar agentes inteligentes que pueden interactuar con diversos sistemas, automatizar tareas complejas o generar código. Sin embargo, una incorrecta configuración de estos sistemas puede activar procesos que expongan datos confidenciales o debiliten los controles de seguridad existentes. Además, existe el riesgo de que estos agentes sean manipulados en ciertos contextos para ejecutar acciones no autorizadas.
Los programas tradicionales de prevención de amenazas internas se enfocan en los riesgos asociados a las personas, contemplando sus accesos, oportunidades o posibles motivaciones. Con la llegada de la inteligencia artificial, surge una nueva dimensión de riesgo. Los investigadores de Proofpoint destacan que los agentes de IA deben ser considerados como «identidades digitales con privilegios propios». Esto implica que las organizaciones deben gestionar los permisos de estos agentes, monitorizar sus actividades y evaluar su impacto en la seguridad.
Vivimos en un entorno de trabajo donde humanos y agentes de IA colaboran regularmente, lo que incrementa los riesgos de errores involuntarios. Herramientas basadas en modelos de lenguaje, como ChatGPT, Microsoft Copilot o Google Gemini, pueden facilitar la exposición accidental de información sensible cuando los usuarios introducen datos en sus consultas. Al mismo tiempo, los agentes podrían resumir documentos internos o acceder a información restringida si no se establecen límites adecuados.
El panorama se complica aún más si actores maliciosos emplean instrucciones diseñadas para manipular sistemas de IA, logrando que los agentes revelen procesos internos o ejecuten acciones que previamente requerían conocimientos técnicos avanzados.
En tiempos de cambios corporativos, como fusiones o adquisiciones, los incidentes internos suelen aumentar debido al acceso a sistemas en transición y la presión sobre los empleados. La inteligencia artificial podría facilitar el espionaje corporativo al permitir investigar competidores, replicar comunicaciones legítimas o encubrir acciones específicas.
No obstante, a pesar de estos riesgos, la IA también se perfila como un aliado crucial para mejorar la ciberseguridad. Proofpoint prevé que para 2026, la inteligencia artificial jugará un papel fundamental en la detección y análisis de incidentes internos. Gracias a su capacidad para procesar grandes volúmenes de datos, la IA podrá identificar patrones sospechosos, correlacionar eventos y priorizar amenazas con mayor rapidez.
Este cambio requerirá una transformación en la gestión de riesgos, integrando las señales provenientes de identidades, comportamientos de usuarios y eventos técnicos en un enfoque unificado. Con esta visión integral, los equipos de seguridad podrán intervenir más rápidamente y aplicar medidas más precisas.
Finalmente, los especialistas subrayan la necesidad de establecer normas claras para el uso responsable de la inteligencia artificial, que incluyan políticas de privacidad, criterios éticos y mecanismos de gobernanza. Según Proofpoint, estas medidas son esenciales para reducir las nuevas amenazas y garantizar un entorno digital seguro en el que convivan personas y sistemas de inteligencia artificial.








