La Casa Blanca ha presentado un nuevo «Plan de Acción sobre la IA», que busca combatir la llamada «IA woke», dirigida a modelos de lenguaje grande (LLMs) cuya información esté en desacuerdo con las posiciones gubernamentales sobre temas como el cambio climático y el género. El objetivo también incluye regular la creación de contenido racista y sexista, así como discursos de odio.
Complementando este plan, se ha promulgado una orden ejecutiva, «Prevención de la IA Woke en el Gobierno Federal», que exige a las empresas tecnológicas con contratos federales demostrar que sus LLMs están libres de «sesgos ideológicos», como la diversidad, equidad e inclusión. Al parecer, esta medida se orienta más a limitar la expresión y acceso a la información mediante LLMs, en lugar de mejorar su precisión.
El problema de los sesgos en la IA no es nuevo. Los modelos tienden a discriminar contra minorías raciales y de género al replicar los prejuicios presentes en los datos con los que son entrenados. Herramientas de «policía predictiva» muestran un sesgo hacia barrios con poblaciones negras, perpetuando injusticias. Además, estudios han revelado que los LLMs asocian desproporcionadamente a personas de color con actividades criminales, y generan imágenes de jueces predominantemente masculinas, a pesar de que las mujeres representan el 34% de estos puestos.
La inexactitud no es el único problema. El uso gubernamental de IA sesgada afecta tangiblemente a las personas, influyendo en su libertad, acceso a recursos y atención médica. Con una proyección de mayor uso de LLMs por agencias, existe el riesgo de perpetuar injusticias sistémicas.
Es esencial implementar salvaguardias robustas para evitar que las herramientas de IA sesgadas perjudiquen a los ciudadanos. La administración actual ha desmantelado restricciones destinadas a proteger derechos civiles, aumentando el riesgo de abusos de IA. Las nuevas normativas podrían también manipular a las empresas para producir modelos aún más ineficaces.
Expertos y organizaciones de derechos digitales han expresado su preocupación, abogando por la protección de los derechos de los ciudadanos ante decisiones influidas por modelos de aprendizaje automático sesgados.