La semana pasada, la Electronic Frontier Foundation (EFF) junto a 30 grupos de la sociedad civil y académicos, emitieron una advertencia a las autoridades del Reino Unido sobre el borrador del Proyecto de Ley de Uso y Acceso de Datos (DUA Bill), dirigido a la Secretaria del Interior, Yvette Cooper, y al Secretario del Departamento de Ciencia, Innovación y Tecnología, Peter Kyle. La preocupación radica especialmente en el artículo 80 de esta propuesta, que plantea serias amenazas a la protección de datos y derechos individuales.
El citado artículo debilita de manera sustancial las restricciones establecidas para las decisiones totalmente automatizadas en el ámbito de la aplicación de la ley, algo que había sido más rígidamente controlado bajo las secciones 49 y 50 de la Ley de Protección de Datos de 2018. Estas secciones prohíben tales decisiones, salvo que estén expresamente autorizadas por la ley. Sin embargo, el nuevo artículo flexibiliza estas medidas, permitiendo el uso de sistemas automatizados con datos sensibles, siempre y cuando no incluyan categorías de datos especiales.
La implementación de este cambio permitiría que las autoridades emplearan decisiones automatizadas basadas en información personal como el estado socioeconómico, residencia o incluso características como el acento. Esto incrementa el riesgo de sesgo y discriminación, especialmente contra grupos minoritarios o socialmente vulnerables, dada la naturaleza de los sistemas automatizados que dependen de conjuntos de datos históricamente sesgados.
En la evaluación de impacto del propio gobierno sobre el DUA Bill, se destacó que individuos con características protegidas, como raza, género y edad, son más susceptibles a sufrir discriminación a causa de estos sistemas automatizados. No obstante, a pesar de tal advertencia, el avance del proyecto sigue firme, lo que ha sido tildado como una agenda discriminatoria y peligrosa.
Con la opacidad inherente a muchos de estos sistemas, las personas afectadas tendrán muy pocas opciones de reparación o recurso, siendo esta una demanda clave de los activistas y académicos. La falta de transparencia no solo coloca en riesgo la justicia y equidad en el manejo de datos, sino que deja a sectores ya marginados aún más expuestos a decisiones arbitrarias y potencialmente dañinas.
La EFF y las organizaciones asociadas subrayan la importancia de que Yvette Cooper y Peter Kyle reconsideren y fortalezcan las salvaguardias en el uso de herramientas automatizadas dentro de la aplicación de la ley. Esto debe hacerse antes de que el proyecto de ley avance más allá del punto de poder ser rectificado, arriesgando convertirse en una norma que institucionalice la discriminación automatizada en el Reino Unido.