La inteligencia artificial agentiva está revolucionando el panorama tecnológico actual al ofrecer niveles de autonomía que superan a la inteligencia artificial tradicional. Estas capacidades avanzadas están generando un impacto significativo en diversas industrias, pero también presentan nuevos desafíos regulatorios que deben abordarse cuidadosamente. En el Reino Unido y en todo el mundo, el debate sobre cómo encajar esta tecnología en estructuras regulatorias existentes está en pleno apogeo.
La inteligencia artificial agentiva se caracteriza por su capacidad de operar de manera independiente, un concepto conocido como «Human Out Of The Loop» (HOOTL), donde las decisiones se toman sin intervención humana. Esto plantea preguntas sobre la adecuación de las normativas actuales para gestionar y supervisar estos sistemas avanzados. Aunque hay voces que abogan por la creación de una legislación específica, otros expertos creen que las regulaciones actuales ya pueden abordar estos desafíos.
En el contexto internacional, la OCDE ha identificado 668 iniciativas de gobernanza de IA en 69 países, lo que indica un esfuerzo colectivo significativo para regular esta tecnología. En el Reino Unido, ya existen 18 marcos regulatorios interconectados, pero la flexibilidad del gobierno británico frente a otras jurisdicciones plantea un enfoque único.
Desde el auge de ChatGPT en 2022, muchas empresas han implementado tecnologías de IA generativa con el objetivo de reducir costos y aumentar la eficiencia, con la expectativa de contribuir significativamente al PIB global. No obstante, se prevé que alrededor del 30% de estos proyectos no llegarán a buen término antes de 2025, principalmente debido a problemas de calidad de datos y gestión de riesgos.
La reciente aprobación de la Ley de Datos (Uso y Acceso) 2025 en el Reino Unido introduce nuevas directrices para el procesamiento de datos, aunque suscita preocupación respecto a su flexibilidad y el potencial aumento de conflictos legales. Por su parte, el departamento de Ciencia, Innovación y Tecnología ha lanzado un Código de Práctica sobre la Ciberseguridad de la IA, diseñado para ayudar a las empresas a gestionar mejor los usos de esta tecnología.
Mientras se adopta esta IA más autónoma, los desafíos legales y éticos se intensifican. La dificultad radica en garantizar que las decisiones generadas por estos sistemas sean transparentes y comprensibles, protegiendo al mismo tiempo los derechos de los ciudadanos sobre sus datos personales.
En definitiva, el futuro de la regulación de la inteligencia artificial agentiva representa un desafío formidable. A medida que su impacto se expanda a diferentes sectores, será crucial evaluar continuamente las estructuras regulatorias vigentes para asegurar que estén alineadas con las rápidas innovaciones tecnológicas que esta modalidad de IA trae consigo.