Hoy se ha anunciado la disponibilidad de los modelos Llama 3.2 en Amazon SageMaker JumpStart, una incorporación que promete revolucionar el panorama de la inteligencia artificial (IA) y el aprendizaje automático (ML). Desarrollados por Meta, los modelos Llama 3.2 presentan capacidades de visión multimodal y están diseñados para proporcionar un rendimiento de vanguardia en benchmarks industriales, facilitando la creación de experiencias avanzadas en IA.
SageMaker JumpStart, conocido por ser un centro integral de ML que ofrece acceso a algoritmos y modelos preentrenados, ahora incluye los modelos Llama 3.2. Esta adición permitirá a los usuarios descubrir y desplegar estos avanzados modelos de lenguaje grande (LLM) utilizando el entorno seguro y eficiente de SageMaker. Los modelos Llama 3.2 están disponibles inicialmente en la región US East (Ohio) de AWS y Meta ha establecido restricciones para su uso en la Unión Europea.
Entre los modelos Llama 3.2, destacan los modelos multimodales de 11B y 90B parámetros con una longitud de contexto de 128,000, optimizados para tareas de razonamiento sofisticadas y soportando imágenes de alta resolución. Además, los modelos ligeros solo de texto están disponibles en versiones de 1B y 3B parámetros, adecuados para dispositivos periféricos. Una innovación notable es el modelo Llama Guard 3 11B Vision, enfocado en la innovación responsable y la seguridad a nivel de sistema.
Meta ha implementado una arquitectura de modelo que permite integrar representaciones de codificadores de imágenes directamente en el modelo de lenguaje, posicionando a Llama 3.2 como el primer modelo Llama con soporte para tareas de visión. Esto facilita nuevas aplicaciones en el procesamiento de imágenes, reducción de latencia y mejora de rendimiento, lo cual es esencial para una amplia gama de aplicaciones de IA.
SageMaker JumpStart simplifica la implementación de estos modelos en un entorno seguro mediante instancias de inferencia dedicadas, aisladas dentro de una nube privada virtual (VPC), reforzando la seguridad y cumplimiento de datos. Además, ofrece la posibilidad de personalización profunda y ajuste fino de los modelos, incrementando su aplicabilidad en diversos casos de uso específicos.
Para acceder a estos modelos, los usuarios pueden utilizar SageMaker Studio, una interfaz integrada que abarca todo el ciclo de vida del desarrollo de ML. Desde la preparación de datos hasta el despliegue de modelos, SageMaker Studio permite descubrir y desplegar modelos fácilmente a través de SageMaker JumpStart. Alternativamente, los usuarios pueden emplear el SDK de Python de SageMaker para integrar programáticamente los modelos en flujos de trabajo existentes.
El despliegue de modelos Llama 3.2 puede realizarse siguiendo un sencillo procedimiento en SageMaker Studio o mediante programación con el SDK de Python de SageMaker. Ejemplos de código y guías están disponibles para ayudar a los usuarios a ejecutar inferencias y limpiar recursos post-implementación.
Con la inclusión de Llama 3.2 en SageMaker JumpStart, se abre una nueva frontera para científicos de datos e ingenieros de ML, permitiéndoles explorar y aprovechar modelos de IA de última generación, impulsando la innovación en sus proyectos. La capacidad de desplegar estos modelos avanzados en un entorno seguro y eficiente refuerza la promesa de Meta y AWS de ofrecer soluciones de IA altamente escalables y personalizables.
Para más información sobre SageMaker JumpStart y cómo comenzar con los modelos Llama 3.2, se recomienda consultar los recursos oficiales de AWS.