Colectivos Sociales Instan al Gobierno a Prohibir la Inteligencia Artificial en Procesos Migratorios

Un grupo de 141 organizaciones, que incluye a la Electronic Frontier Foundation (EFF), Just Futures Law y diversas entidades de defensa de derechos civiles, ha dirigido una carta al Secretario de Seguridad Nacional, Alejandro Mayorkas, demandando al Departamento de Seguridad Nacional (DHS) la interrupción del uso de herramientas de inteligencia artificial (IA) en su sistema de inmigración. La EFF ha estado advirtiendo durante años sobre los peligros de la vigilancia automatizada en la frontera entre Estados Unidos y México, subrayando que las decisiones algorítmicas no deben tener autoridad final en cuestiones críticas como la vigilancia, arrestos o la concesión de asilo.

La misiva, respaldada por diversas organizaciones de derechos humanos y cuentas gubernamentales, alega que el DHS está violando políticas federales respecto al uso responsable de la IA, especialmente en decisiones relacionadas con la aplicación de la ley de inmigración. De acuerdo con la Casa Blanca, la IA es un sistema que puede hacer predicciones, recomendaciones o decisiones basadas en objetivos definidos por humanos, sin embargo, la implementación por parte del DHS no ha cumplido con los estándares establecidos.

La carta señala un informe alarmante publicado por Mijente y Just Futures Law, que examina el uso de la IA y la toma de decisiones automatizadas por parte del DHS y sus dependencias. A pesar de las promesas del DHS de evitar el uso de tecnología de IA para la vigilancia indiscriminada, el informe revela que la agencia ha utilizado la IA para justificar su falta de cumplimiento con estos estándares, a menudo mencionando excepciones de seguridad nacional.

A pesar de que el uso de la IA en el DHS está en aumento, el informe cuestiona la eficacia de estas herramientas y su potencial para agravar la discriminación. Ejemplos de fallos de la IA en contrataciones han mostrado que los algoritmos pueden amplificar sesgos existentes, como en el caso del sistema de selección de currículums de Amazon, que favoreció a candidatos masculinos debido al sesgo en los datos utilizados para entrenar el sistema. Herramientas de inteligencia predictiva también han demostrado ser problemáticas, enfocándose en comunidades de color y perpetuando así disparidades raciales.

Además, el informe destaca que el DHS utiliza IA en procesos cruciales, como la evaluación de solicitudes de asilo y la gestión de la detención y deportación por parte de ICE, sin realizar una evaluación adecuada de estas herramientas tecnológicas. La falta de transparencia en su uso plantea serias preocupaciones sobre la adopción de tecnologías no probadas y los intereses financieros que podrían estar detrás de su promoción.

En consecuencia, las organizaciones firmantes instan urgentemente al DHS a asumir la responsabilidad por sus decisiones relacionadas con la tecnología de IA y a detener el uso de estas herramientas hasta que se aborden adecuadamente los problemas planteados en la carta y el informe.

Titulares Prensa
Titulares Prensa
Resumen de la actualidad y noticias de la Prensa nacional e internacional

Compartir artículo:

Más popular

Más artículos como este
Relacionados