La reciente introducción de ALIA, una iniciativa española centrada en el desarrollo de inteligencia artificial en castellano y lenguas cooficiales, ha suscitado tanto interés como escepticismo en el ámbito tecnológico. Si bien el proyecto apunta a potenciar el uso del castellano dentro de la tecnología y avanzar en la soberanía digital nacional, se plantean dudas sobre la necesidad de que un gobierno administre una infraestructura de inteligencia artificial, considerando la existencia de múltiples soluciones open source.
ALIA se presenta como una infraestructura ostensiblemente abierta y transparente, aunque bajo la supervisión estatal. Este control genera preocupaciones sobre posibles sesgos en una tecnología tan influyente como los modelos de lenguaje, que inevitablemente moldean cómo la información es accesible y cómo se desarrollan las interacciones digitales. Históricamente, las herramientas bajo control gubernamental tienden a reflejar sesgos políticos o ideológicos, un riesgo particularmente acentuado en la IA, donde los modelos entrenados podrían ser manipulados para seguir las directrices gubernamentales.
En contraste, el ecosistema actual de inteligencia artificial ya ofrece una amplia gama de soluciones open source. Iniciativas como Hugging Face, OpenAI en su versión inicial, y modelos desarrollados por organizaciones académicas y privadas son ejemplos de herramientas robustas adaptables a diversos idiomas y contextos. Estas alternativas tienen la ventaja de ser totalmente transparentes, permitiendo auditorías del código y datos de entrenamiento, lo que las hace más accesibles al escrutinio público en comparación con los sistemas controlados por el gobierno.
El control gubernamental de una infraestructura de IA conlleva riesgos significativos, tales como la potencial censura y control de la narrativa, donde ciertos temas podrían priorizarse en detrimento de otros. Además, una solución estatal podría desincentivar la competitividad y desplazar alternativas privadas u open source, limitando la diversidad de opciones y, por ende, la innovación tecnológica.
La cuestión central no reside en la utilidad de ALIA, sino en si representa la mejor vía hacia un ecosistema tecnológico inclusivo y ético. Destinar recursos a fomentar el uso de soluciones open source adaptadas al contexto lingüístico español podría favorecer colaboraciones más transparentes entre el sector público y privado, minimizando riesgos de control centralizado.
Por otra parte, las soluciones open source son, inherentemente, más inclusivas, al no estar condicionadas por intereses políticos nacionales específicos. Una comunidad global podría contribuir a mejorar estos modelos, beneficiando a usuarios de manera más equitativa.
En conclusión, si bien ALIA es un proyecto ambicioso, su naturaleza gubernamental y la centralización de una tecnología tan crítica exigen un debate detenido. En un contexto donde las soluciones open source permanecen como una opción viable, resulta fundamental cuestionarse si es necesario un modelo de IA gestionado por el gobierno o si recursos deberían invertirse en fomentar herramientas descentralizadas que reflejen mejor los principios de transparencia, imparcialidad e innovación.