Más de 200 empleados de DeepMind, el renombrado laboratorio de investigación y desarrollo de Google, han manifestado su objeción al uso de la tecnología de inteligencia artificial (IA) en contextos militares. En una carta fechada el 16 de mayo, los trabajadores han instado a la compañía a finalizar sus contratos con entidades militares, argumentando que la tecnología desarrollada por Google se está utilizando en actividades bélicas, lo cual contradice los principios éticos de IA que Google se comprometió a seguir desde la adquisición de DeepMind en 2014.
El documento no menciona explícitamente conflictos o acuerdos específicos, pero hace referencia al controvertido Proyecto Nimbus, un acuerdo entre Google e Israel que implica la provisión de servicios de computación en la nube e inteligencia artificial al ejército israelí. Según la carta, el ejército israelí está utilizando estas tecnologías para la vigilancia y la realización de bombardeos selectivos, lo que violaría los principios de ética y responsabilidad que Google ha prometido observar.
En la carta, los empleados acusan a Google de no cumplir su compromiso de impedir que sus tecnologías sean empleadas para fines militares o de vigilancia, lo cual afecta negativamente su reputación como líder en IA ética. Además, se pide a la directiva de Google que investigue estas alegaciones, bloquee el acceso militar a sus tecnologías y asegure que futuros contratos no incluyan aplicaciones militares.
Hasta el momento, señalan los empleados, no han recibido una respuesta significativa por parte de la dirección de Google. Aunque solo el 5% de la fuerza laboral ha firmado la carta, el hecho subraya una creciente tensión dentro de la empresa, evidenciando un choque cultural entre la división de IA de Google, DeepMind, y la empresa en general, que continúa vendiendo servicios en la nube y tecnología de IA a clientes militares.
Esta controversia resalta un conflicto entre los principios éticos del desarrollo de IA y las prácticas comerciales de la compañía, provocando un debate sobre el papel de las grandes tecnológicas en la industria armamentista y su responsabilidad en la aplicación de sus tecnologías.
Esta situación también genera un debate más amplio sobre cómo las grandes corporaciones tecnológicas gestionan la ética en la implementación de sus innovaciones. La creciente presión interna podría obligar a Google a reevaluar su postura respecto a los contratos militares y a tomar medidas concretas para alinear sus prácticas con los principios que defiende.
La controversia sigue en desarrollo, y el resultado de este conflicto podría tener implicaciones significativas tanto para la política interna de Google como para el debate global sobre la ética en la inteligencia artificial y la tecnología.