Inicio Tecnología OpenAI Alerta sobre Riesgos de la IA: Desinformación, Ciberataques y Fraudes en...

OpenAI Alerta sobre Riesgos de la IA: Desinformación, Ciberataques y Fraudes en la Mira

0

OpenAI ha lanzado un reciente informe que revela las crecientes amenazas emergentes vinculadas al uso indebido de sus sofisticados modelos de inteligencia artificial. En este documento, la empresa tecnológica expone cómo actores estatales y ciberdelincuentes han intentado explotar sus herramientas para llevar a cabo campañas de desinformación, fraudes financieros y sofisticados ataques cibernéticos.

Un descubrimiento crucial del informe es la utilización cada vez mayor de la inteligencia artificial en campañas de desinformación, especialmente en el ámbito de la influencia política a nivel global. OpenAI ha identificado actividades de entidades asociadas a China e Irán que, mediante su tecnología, crearon artículos, comentarios en redes y mensajes propagandísticos orientados a alterar la opinión pública. Un caso específico evidenció que cuentas automatizadas usaban ChatGPT para generar artículos en español críticos a la política exterior de Estados Unidos, destinados a medios digitales en América Latina. También se documentaron intentos de adaptar y traducir propaganda en diversos idiomas, aumentando así su influencia global.

Para contrarrestar estos esfuerzos, OpenAI afirma haber implementado medidas proactivas, como el bloqueo de estas actividades maliciosas y la colaboración con plataformas como Meta y X (anteriormente Twitter) para mejorar los mecanismos de detección de contenido generado por IA.

El informe también detalla que las herramientas de IA han sido utilizadas en esquemas de contratación fraudulentos y estafas amorosas. Grupos ligados a Corea del Norte han empleado inteligencia artificial para crear respuestas automatizadas en entrevistas de trabajo ficticias, con el objetivo de infiltrar agentes en empresas tecnológicas occidentales y así obtener información confidencial o financiar actividades ilegales del régimen. En otra operación originada en el sudeste asiático, se detectaron modelos de lenguaje que produjeron mensajes persuasivos en estafas románticas y fraudes financieros, engañando a las víctimas para que invirtieran en criptomonedas o plataformas forex fraudulentas.

Más allá de la desinformación y los fraudes, el informe destaca que ciertos grupos intentan usar las herramientas de OpenAI para mejorar actividades de ciberataques. Se han identificado actores maliciosos que aprovechan la inteligencia artificial para generar código malicioso, depurar exploits y automatizar intrusiones en redes, especialmente preocupante en el contexto de espionaje cibernético en Asia y Oriente Medio. Sin embargo, OpenAI señala que han fortalecido sus sistemas de detección, bloqueando miles de intentos de uso indebido y colaborando estrechamente con agencias de ciberseguridad para mitigar estos riesgos.

En respuesta a estos desafíos, OpenAI ha reafirmado su compromiso con la seguridad mediante la implementación de nuevas salvaguardas diseñadas para prevenir el abuso de sus innovadoras herramientas. Destacan los sistemas de detección mejorados para identificar en tiempo real patrones de uso indebido, la cooperación con gobiernos y empresas tecnológicas para compartir información sobre amenazas emergentes y las restricciones en el acceso a sus modelos de IA.

«La inteligencia artificial tiene un enorme potencial para beneficiar a la humanidad, pero también debemos estar atentos a los riesgos de su uso indebido. Seguiremos trabajando para garantizar que nuestras herramientas sean utilizadas de manera responsable y ética,» comentó OpenAI en el informe.

Con este análisis, OpenAI reafirma su compromiso con la transparencia y seguridad en el campo de la inteligencia artificial, en un entorno donde estas tecnologías evolucionan a un ritmo sin precedentes.

Salir de la versión móvil