Akamai, la empresa líder en ciberseguridad y cloud computing, ha dado un significativo paso adelante en el sector tecnológico con la presentación de Akamai Cloud Inference. Esta nueva solución se perfila como una herramienta esencial para organizaciones que desean transformar modelos predictivos y de grandes lenguajes (LLMs) en realidades accesibles y eficientes. Ejecutándose en la red más distribuida del mundo, Akamai Cloud, esta iniciativa busca superar las crecientes limitaciones de los modelos centralizados en la nube.
Francisco Arnau, vicepresidente de Akamai para España y Portugal, explica que la cercanía de los datos de inteligencia artificial a los usuarios y dispositivos representa un desafío que las nubes heredadas aún no han logrado sortear con éxito. A pesar de que el entrenamiento de LLMs continuará en centros de datos a hiperescala, la inferencia, un proceso en el cual la red creada por Akamai durante 25 años se vuelve crucial, se desplazará al edge. Este movimiento estratégico coloca a Akamai en una posición ventajosa respecto a sus competidores en el mercado de la nube.
Akamai Cloud Inference promete revolucionar el modo en que las aplicaciones de IA se desarrollan y ejecutan, optimizando el rendimiento en hasta tres veces y reduciendo la latencia en 2,5 veces. Las empresas podrían ver una disminución de hasta un 86% en el costo de inferencias de IA al utilizar esta nueva infraestructura, comparada con las soluciones tradicionales.
La solución se compone de un robusto conjunto de herramientas integradas, comenzando con capacidades avanzadas de computación que van desde CPUs clásicas hasta opciones más poderosas como GPUs y VPU ASIC personalizadas. Esta variedad permite afrontar una amplia gama de desafíos en la inferencia de IA, optimizando su rendimiento con tecnologías de Nvidia.
En cuanto a la gestión de datos, Akamai ha hecho alianza con VAST Data para proporcionar un acceso a datos más rápido y eficiente, esencial para la inferencia en IA. Además, el uso de almacenamiento de objetos altamente escalable y la integración con proveedores de bases de datos vectoriales habilitan la generación aumentada, asegurando una baja latencia a escala global.
La tecnología de contenedorización permite gestionar eficazmente las cargas de trabajo de IA, facilitando el autoescalado, la resiliencia y portabilidad en entornos híbridos-multicloud. Con Kubernetes y la reciente Akamai App Platform, las aplicaciones de IA se desarrollan y despliegan más rápidamente, alineándose con una visión de código abierto que incluye herramientas como Kserve, KubeFlow y SpinKube.
Adicionalmente, mediante Edge Compute y el uso de WebAssembly, Akamai facilita la labor de los desarrolladores al permitirles ejecutar inferencias directamente en el edge, mejorando la respuesta en aplicaciones de IA que requieren baja latencia.
En términos generales, Akamai Cloud Inference presenta una infraestructura poderosa diseñada para aplicaciones exigentes en términos de recursos de datos, estableciendo un estándar por su capacidad de distribuir más de un petabyte por segundo. Esta red global y distribuida, con más de 4.100 puntos de presencia en más de 130 países, ofrece una escalabilidad sin precedentes.
En un contexto en el que las empresas buscan cada vez más soluciones enfocadas a la inferencia de IA, la oferta de Akamai se presenta como una respuesta contundente y visionaria, adaptándose a las cambiantes dinámicas del mercado y permitiendo decisiones empresariales más rápidas y precisas. Según Arnau, mientras los LLMs representan la cartografía de los datos, la inferencia es el GPS que los transforma en decisiones ágiles y adaptativas, marcando el futuro de la inteligencia artificial.