En un avance significativo para el sector de inteligencia artificial, Amazon ha anunciado la incorporación de los modelos Llama 3.2 a las plataformas Amazon SageMaker JumpStart y Amazon Bedrock. Estos modelos avanzados de IA generativa, preentrenados y ajustados mediante instrucciones, están ahora disponibles en configuraciones que van desde los ligeros modelos de solo texto con 1.000 millones (1B) y 3.000 millones (3B) de parámetros, ideales para dispositivos periféricos, hasta los más robustos con 11.000 millones (11B) y 90.000 millones (90B) de parámetros, capaces de realizar tareas de razonamiento sofisticado, incluyendo soporte para imágenes de alta resolución.
Amazon SageMaker JumpStart es una plataforma diseñada para facilitar el acceso a algoritmos y modelos de aprendizaje automático, acelerando el inicio de proyectos para usuarios. Por otro lado, Amazon Bedrock es un servicio completamente gestionado que permite a los usuarios acceder a modelos fundacionales de alto rendimiento, provenientes de líderes del sector de IA como Meta, utilizando una sola API. Esta herramienta también incluye amplias capacidades necesarias para el desarrollo de aplicaciones de IA generativa segura y responsable.
En un comunicado reciente, Amazon ha explicado cómo los modelos Llama 3.2 11B y 90B pueden ser utilizados para diversos casos de uso basados en visión, marcando la primera vez que estos modelos de Meta incluyen capacidades visuales. Entre los ejemplos discutidos se encuentran la respuesta a preguntas visuales basadas en documentos, la extracción de información estructurada de imágenes y la generación de subtítulos para imágenes. Estos modelos multimodales aceptan tanto entrada de texto como de texto+imagen, y son capaces de producir salida de texto.
Una de las innovaciones clave de los modelos Llama 3.2 es su arquitectura, que integra representaciones del codificador de imágenes dentro del modelo de lenguaje. Esto les permite ser más eficientes en distintas cargas de trabajo de IA, reduciendo latencia y mejorando el rendimiento. Los modelos también soportan una longitud de contexto de hasta 128.000 tokens, continuando con la capacidad ampliada introducida en versiones anteriores.
En cuanto a disponibilidad, los modelos Llama 3.2 están accesibles para inferencias en SageMaker JumpStart y Amazon Bedrock. Inicialmente, estos modelos se pueden encontrar en la región AWS US East (Ohio) y soportan los tipos de instancias necesarios. En particular, los modelos de 90B y 11B también están disponibles en las regiones US West (Oregón) y US East (Ohio, N. Virginia) mediante inferencia entre regiones. Los modelos más ligeros de 1B y 3B se encuentran en US West (Oregón) y Europa (Fráncfort), así como en US East (Ohio, N. Virginia) y Europa (Irlanda, París), con planes de ampliar la disponibilidad regional en el futuro.
Demostrando su aplicabilidad práctica, Amazon ha presentado varios ejemplos de la utilidad de los modelos Llama 3.2, tales como la respuesta a preguntas sobre documentos, la extracción de entidades y la generación de subtítulos. Estos casos de uso reflejan el amplio potencial y versatilidad de los modelos en industrias como el comercio electrónico y el marketing, entre otras.