Thomson Reuters (TR), una de las organizaciones de información más confiables a nivel mundial, ha logrado significativos avances en su división de investigación, Thomson Reuters Labs (TR Labs), mediante la implementación de procesos MLOps (operaciones de aprendizaje automático). Gracias a un marco de trabajo estandarizado que emplea soluciones basadas en Amazon Web Services (AWS), como SageMaker, SageMaker Experiments, SageMaker Model Registry y SageMaker Pipelines, TR Labs ha optimizado sus métodos de desarrollo y entrenamiento de modelos de inteligencia artificial (IA).
Con una creciente expansión, los equipos de TR Labs, que comenzaron modestamente y ahora cuentan con más de 150 científicos aplicados, especialistas en aprendizaje automático e ingenieros, enfrentaron la necesidad de gestionar procesos cada vez más complejos. Originalmente, los investigadores utilizaban configuraciones personalizadas y códigos repetitivos, lo que resultaba en baja eficiencia y escasa estandarización.
Reconociendo la necesidad de mejorar, la dirección de TR Labs implementó un conjunto estandarizado de herramientas MLOps, denominado TR MLTools. Este paquete de herramientas, incluyendo MLTools y MLTools CLI, un paquete Python y una herramienta de línea de comandos, facilita el flujo de trabajo de experimentos de aprendizaje automático. Proporcionan plantillas de código y configuración estandarizadas, promoviendo así la reutilización efectiva del código y consolidando el entorno de trabajo. Esto permite a los equipos crear nuevos experimentos, realizar pruebas y ejecutar scripts a escala mediante trabajos en SageMaker.
El enfoque estandarizado ha acelerado notablemente el desarrollo de modelos, reduciendo el tiempo desde la ideación hasta la producción. La colaboración entre investigadores y ingenieros en ML ha mejorado, asegurando un flujo continuo desde la experimentación hasta la implementación y el mantenimiento en producción.
Además de la aceleración en los tiempos de desarrollo, la estandarización ha permitido identificar y corregir errores y desviaciones en el rendimiento de los modelos de manera más eficiente, resultando en un ahorro de costos significativo. La uniformidad del proceso ha eliminado la necesidad de tareas manuales repetitivas y configuraciones individualizadas, reduciendo el tiempo dedicado a labores complejas y redundantes.
Evaluaciones periódicas con los usuarios de estas herramientas han revelado mejoras en la productividad percibida de hasta un 40% en varias áreas del ciclo de vida de la IA/ML. Este incremento en la eficiencia ha aumentado la retención de talento y la satisfacción general de los usuarios dentro de TR Labs.
En resumen, la adopción de un marco estandarizado de MLOps ha permitido a TR Labs optimizar su proceso de desarrollo de modelos de IA, disminuyendo los tiempos de mercado y acelerando el valor de negocio obtenido mediante el desarrollo tecnológico. Para aquellos interesados en cómo AWS puede asistir en sus proyectos de IA/ML y MLOps, es posible obtener más información en la página de Amazon SageMaker.