Google Revisa sus Políticas de IA: Se Elimina Restricción sobre Desarrollo de Armas con Inteligencia Artificial

En un giro inesperado, Google ha modificado sus principios sobre inteligencia artificial al eliminar una prohibición clave sobre el desarrollo de armamento o tecnologías destinadas a causar daño a personas. Este cambio, según un análisis de Noticias Inteligencia Artificial, remueve una sección crucial de su política anterior y genera dudas sobre la ética de la compañía respecto al uso de la IA en contextos militares y de vigilancia.

La actualización de Google refleja un cambio de rumbo en la industria tecnológica. Este 2023, OpenAI también suavizó restricciones similares antes de cerrar un acuerdo con el Pentágono. Ahora, Google ha eliminado una categoría que identificaba aplicaciones que no se desarrollarían bajo ningún concepto.

Anteriormente, la política de Google incluía una lista clara de tecnologías prohibidas, como las que podrían causar daño significativo, el desarrollo de armas con finalidad letal, vigilancia masiva contraria a normas internacionales y aplicaciones que violen los derechos humanos. Con la nueva actualización, estas restricciones explícitas han sido sustituidas por un compromiso más general de mitigar posibles resultados dañinos y alinear su trabajo con principios del derecho internacional y los derechos humanos.

Las razones detrás de este cambio parecen ser estratégicas, alineadas con un creciente interés del sector por contratos gubernamentales y militares. Aunque Google previamente optó por no renovar colaboraciones con el Departamento de Defensa tras la controversia del Proyecto Maven en 2017, donde su tecnología fue utilizada para analizar imágenes captadas por drones, el cambio actual sugiere una posible apertura a futuros acuerdos.

La respuesta oficial de Google, emitida por James Manyika y Demis Hassabis, reafirma su compromiso con el desarrollo responsable de la IA, aunque evita mencionar directamente la eliminación de la prohibición sobre armamento. Han indicado que continuarán adaptando su enfoque a medida que la tecnología evolucione, sin aclarar si esto implica una implicación militar más activa.

El ajuste de Google podría tener diversas consecuencias. Abre la puerta a futuros contratos militares, lo que podría incluir análisis de datos y seguridad cibernética. Sin embargo, esta decisión podría reavivar protestas internas de empleados, quienes en el pasado han mostrado descontento ante la colaboración de la empresa con proyectos militares. Además, es probable que impulse debates sobre nuevas regulaciones gubernamentales sobre el uso de IA en defensa, tanto en EE.UU. como en la Unión Europea, donde se buscan normas para controlar estos desarrollos.

La decisión de Google podría marcar un precedente en el sector, donde otras tecnológicas como Microsoft, Amazon y OpenAI podrían seguir su ejemplo, intensificando la competencia en el mercado de IA para defensa y seguridad.

En conclusión, la eliminación de las restricciones sobre el desarrollo de IA para armamento en Google representa un cambio estratégico significativo. Aunque la empresa reitera su compromiso con los derechos humanos y el derecho internacional, las omisiones en cuanto a restricciones explíticas generan inquietudes en la comunidad y podrían influir en las decisiones de otras compañías tecnológicas en cuanto a la evolución de la IA en el ámbito militar. Todo indica que la atención continuará centrada en Google, especialmente si anuncian nuevos contratos con el Pentágono y la respuesta de sus empleados ante este viraje.

Cayetano Andaluz
Cayetano Andaluz
Periodista y redactor de noticias de actualidad sobre Andalucía y sus provincias. También información en general.

Compartir artículo:

Más popular

Más artículos como este
Relacionados