Desde la irrupción de modelos de inteligencia artificial como ChatGPT, ha surgido una ola de desafíos legales dirigidos a los desarrolladores de estas tecnologías. En el corazón de estas disputas está la cuestión de los derechos de autor, con demandantes que afirman que el uso de sus obras para entrenar estos modelos constituye una infracción a sus derechos legales. Por otro lado, los desarrolladores aseguran que el entrenamiento está amparado bajo la doctrina del uso justo.
La respuesta de los desarrolladores ha sido estratégica: muchos están optando por realizar acuerdos de licencia como medida preventiva contra posibles litigios. Este enfoque sugiere que las actuales controversias legales podrían estar siendo utilizadas como un mecanismo de negociación más que como un recurso legal definitivo.
El desenlace de estos casos sigue siendo incierto. Los derechos de autor podrían imponerse, las partes podrían alcanzar acuerdos o, incluso, los desarrolladores podrían obtener una victoria en los tribunales. Los analistas sostienen que, aunque los desarrolladores tienen un argumento robusto, expandir la protección de derechos de autor no garantizará la preservación de empleos frente a la automatización. Además, un fallo a favor de los derechos de autor podría erosionar las salvaguardias de uso justo y, a su vez, impactar negativamente en la innovación y la investigación.
Tribunales de diversas jurisdicciones han desestimado en repetidas ocasiones las reclamaciones bajo la Sección 1202(b) de la Ley de Derechos de Autor del Milenio Digital. Un ejemplo notable es el caso de «Raw Story Media v. OpenAI, Inc.», donde el tribunal desestimó las acusaciones al no encontrarse evidencia de daño causado por el entrenamiento del modelo sobre las obras del demandante. Casos similares han seguido el mismo destino, reafirmando la complejidad de aplicar la normativa actual a estas innovaciones tecnológicas.
No obstante, no todos los litigios han sido rechazados. En «Andersen v. Stability AI Ltd.», por ejemplo, las reclamaciones de infracción de derechos de autor fueron admitidas parcialmente, apuntando a la inclusión de obras del demandante en conjuntos de datos de entrenamiento que podrían haber generado semejanzas con piezas artísticas existentes.
Un elemento determinante en estas disputas es la doctrina del uso justo, aún poco explorada en los contextos de inteligencia artificial. Un caso peculiar, «Thomson Reuters Enterprise Centre GMBH v. Ross Intelligence, Inc.», mostró cómo un cambio en la interpretación de esta doctrina puede alterar el panorama legal, generando incertidumbres para los desarrolladores de IA.
Paralelamente a estos litigios, gigantes tecnológicos como OpenAI y Google han comenzado a cerrar acuerdos de licencia multimillonarios con corporaciones de medios para asegurarse acceso legítimo a los datos necesarios para entrenar sus modelos. Este movimiento ha dado lugar a un naciente mercado de licencias por valor de 2.500 millones de dólares. A pesar de que el uso de estos datos podría considerarse justo, el verdadero desafío radica en que solo un pequeño conglomerado de empresas con la capacidad financiera de afrontar estos costos podría dominar y definir el rumbo futuro de la inteligencia artificial.