Red Hat Lanza Ramalama: Simplificando la Inteligencia Artificial para el Usuario Común

En la reciente conferencia Flock de Fedora, Red Hat reveló un ambicioso proyecto con el nombre clave de «ramalama», destinado a transformar la percepción y el uso de la inteligencia artificial (IA). En lugar de llenar de complejidad este campo innovador, ramalama busca hacer que la IA sea «aburrida», en el sentido más positivo de la palabra: accesible, simple y directa.

El proyecto ramalama destaca por su enfoque en la simplicidad en un ámbito usualmente dominado por soluciones tecnológicas complicadas y avanzadas. Los representantes de Red Hat subrayaron durante la presentación de la herramienta que su misión es simplificar la IA, proponiendo herramientas confiables y fáciles de usar.

Ramalama se enfoca en que los usuarios puedan realizar tareas vinculadas con la IA, desde la instalación hasta la ejecución, con un solo comando por contexto. Esto incluye la gestión, despliegue y operación de modelos de IA sin la maraña de complicaciones innecesarias. La tecnología subyacente se basa en contenedores OCI (Open Container Initiative), eliminando la configuración manual y automatizando la extracción, ejecución y servicio de modelos.

El sistema se inicia inspeccionando el soporte de GPU del equipo, y si no está presente, recurre a la CPU. Usando motores de contenedores como Podman, ramalama extrae imágenes OCI que contienen todo el software necesario para ejecutar modelos de IA, simplificando aún más el proceso para el usuario final.

Ramalama es compatible con múltiples tecnologías, incluidos GPUs de diversos fabricantes como NVIDIA, AMD, Intel, así como las arquitecturas ARM, RISC-V y Apple Silicon. A pesar de esta amplitud tecnológica, actualmente se limita a la arquitectura x86_64. Los modelos estándar se obtienen del registro Ollama, mientras que las tecnologías llama.cpp y Podman soportan su infraestructura.

La compatibilidad de ramalama se extiende a varios sistemas operativos. Aunque Linux será el primero en recibir soporte oficial, la herramienta también funcionará en macOS y, potencialmente, en Windows a través de WSL (Windows Subsystem for Linux). De no estar disponible el soporte para GPU, empleará la CPU del dispositivo.

Aún en una fase temprana de desarrollo, el código fuente de ramalama ya está disponible en GitHub bajo la licencia MIT. Inicialmente, el proyecto será probado en Fedora, una reconocida distribución de Linux que frecuentemente actúa como plataforma de pruebas para innovaciones que podrían integrarse en Red Hat Enterprise Linux. La aceptación y éxito de ramalama en Fedora podría significar su posterior difusión a otras distribuciones de Linux.

Con ramalama, Red Hat propone democratizar el acceso a la IA, haciéndola más accesible y menos intimidante. La visión del proyecto es permitir que incluso aquellos con menor experiencia en tecnología puedan aprovechar el poder de la IA, haciendo que su uso sea una experiencia placentera y sin complicaciones.

Cayetano Andaluz
Cayetano Andaluz
Periodista y redactor de noticias de actualidad sobre Andalucía y sus provincias. También información en general.

Compartir artículo:

Más popular

Más artículos como este
Relacionados

El Servicio de Igualdad Aumenta su Dotación para Colectivos LGTBI

La presidenta de la Diputación, Almudena Martínez, ha mantenido...

Yolanda Díaz: El inesperado adiós sin cuentas saldadas

Durante su visita a la pasarela de moda Mercedes-Benz...