En un esfuerzo por abordar los desafíos que trae consigo la utilización de herramientas de inteligencia artificial en el ámbito del desarrollo de software, la Electronic Frontier Foundation (EFF) ha introducido una nueva política para las contribuciones asistidas por modelos de lenguaje de gran tamaño (LLM) en sus proyectos de código abierto. Dicha medida tiene como objetivo no solo aumentar la cantidad de líneas de código, sino garantizar que los colaboradores entiendan el código que producen y mantengan sus estándares de calidad.
La implementación de esta política llega en un momento en que las herramientas de inteligencia artificial son omnipresentes, pero su uso indiscriminado puede generar complicaciones para los equipos de desarrollo. Aunque el código generado por modelos de lenguaje puede parecer similar al que realizaría un humano, es común que contenga errores difíciles de detectar, especialmente para equipos con recursos limitados. La revisión exhaustiva de estas contribuciones es crucial para evitar alucinaciones, omisiones o exageraciones en el código entregado.
La EFF, consciente de estos retos, no prohíbe el uso de LLM, pero insiste en la transparencia de los colaboradores sobre su uso. De este modo, se facilita a los mantenedores del proyecto una mejor gestión del tiempo y permite un enfoque más útil y fundamentado en las revisiones de código. Con esta iniciativa, se busca que las contribuciones mantengan un alto nivel de calidad, apoyadas por documentación y comentarios claros, redactados por humanos.
Además, la organización subraya los desafíos éticos y de privacidad que representan las herramientas de inteligencia artificial, destacando la necesidad de prácticas sustentables y responsables en el sector tecnológico. La EFF hace hincapié en la importancia de fomentar una innovación responsable que respete tanto a los desarrolladores como a los usuarios finales, reafirmando su compromiso con el uso seguro y ético de la inteligencia artificial en el desarrollo de software.
Con esta política, la EFF no solo busca mejorar el proceso de contribuciones en sus proyectos open source, sino también establecer un precedente para la industria en la adopción de prácticas más seguras y transparentes en el uso de inteligencia artificial.







