En los últimos años, se ha incrementado la necesidad entre las empresas de desarrollar metodologías que permitan priorizar proyectos de inteligencia artificial generativa. Este proceso no se debe a una escasez de casos de uso, sino a la urgencia de evaluar el valor empresarial en contraposición al costo, esfuerzo requerido y otros factores relevantes. Un nuevo desafío en este contexto es lidiar con las «alucinaciones» de la IA generativa, situaciones en que los agentes adoptan decisiones incorrectas, además de enfrentar el dinamismo del panorama regulatorio. Para enfrentar estas preocupaciones de manera sistemática, se sugiere la incorporación de prácticas de IA responsable en los métodos de priorización.
Amazon Web Services (AWS) ha definido la IA responsable como la práctica de diseñar, desarrollar y usar tecnología de inteligencia artificial enfocándose en maximizar beneficios mientras se minimizan los riesgos. Este marco detalla ocho dimensiones de IA responsable: equidad, explicabilidad, privacidad y seguridad, seguridad, controlabilidad, veracidad y robustez, gobernanza y transparencia. Durante el ciclo de vida del desarrollo, los equipos de IA generativa deben considerar los potenciales daños y riesgos en cada dimensión, además de implementar y monitorear mitigaciones.
Este enfoque resulta particularmente valioso para proyectos de IA generativa, donde los riesgos son novedosos y no siempre comprensibles. Incorporar la IA responsable desde el inicio ofrece una visión más clara del riesgo y el esfuerzo de mitigación requerido, lo que previene costosos reprocesos si los riesgos son descubiertos posteriormente.
Aunque la mayoría de las empresas cuenta con sus propios sistemas de priorización, se puede aplicar la metodología WSJF (Weighted Shortest Job First) del sistema Scaled Agile. Esta técnica calcula la prioridad con la fórmula: Prioridad = (costo del retraso)/(tamaño del trabajo), considerando el valor comercial y el esfuerzo necesario para la implementación.
Un ejemplo práctico se centra en comparar dos proyectos de IA generativa: uno utiliza un modelo de lenguaje para generar descripciones de productos, mientras que otro emplea un modelo de texto a imagen para crear visuales publicitarios. Inicialmente, sin incluir la IA responsable, el segundo proyecto parece más atractivo debido a su urgencia. No obstante, al incluir una evaluación de riesgos basada en IA responsable, el primer proyecto presenta menos complejidad y un costo de mitigación menor, sugiriendo que podría ser el más adecuado para iniciar.
Las empresas deben empezar a formular políticas de IA responsable y adoptar prácticas adecuadas para proyectos de IA generativa. Estas medidas son esenciales no solo para evitar costos innecesarios, sino también para generar confianza con los clientes y cumplir con regulaciones cada vez más estrictas.