La inteligencia artificial (IA) continúa revolucionando nuestras interacciones con la tecnología, abriendo paso a experiencias mejoradas en diversos contextos. DirectML, una plataforma de desarrollo clave, permite a los programadores introducir innovaciones de IA en Windows, aprovechando la aceleración de hardware local. Hoy se anunció la expansión del soporte de DirectML a unidades de procesamiento neuronal (NPU) en PCs Copilot+ y WebNN.
DirectML ahora es compatible con PCs Copilot+ que operan con la plataforma de computación Snapdragon® X Elite de Qualcomm®. Estas máquinas destacan por su rendimiento y eficiencia energética, facilitando experiencias excepcionales de IA en Windows. DirectML, un componente esencial del Windows Copilot Runtime, ahora permite a los desarrolladores optimizar sus aplicaciones de IA para estos dispositivos.
Upendra Kulkarni, vicepresidente de Gestión de Productos de Software de Computación en Qualcomm, expresó su entusiasmo por esta colaboración: «Con Snapdragon X Elite, presentamos una NPU líder en la industria con 45 TOPS de rendimiento en IA y una eficiencia energética notable. DirectML ofrece una interfaz de programación de ML amigable para desarrolladores utilizando la estructura de API familiar de DirectX. Con el soporte de DirectML en nuestra NPU, los desarrolladores pueden aprovechar su capacidad con un esfuerzo mínimo. Hemos trabajado estrechamente con Microsoft para optimizar DirectML y maximizar el rendimiento del hardware. Estamos emocionados de anunciar este programa de vista previa para desarrolladores.»
Para empezar con DirectML en PCs Copilot+, es necesario seguir ciertos pasos, como actualizar a las versiones correctas de DirectML, ONNX Runtime (ORT), Windows y el controlador Qualcomm® Hexagon NPU. Después, se debe crear una cuenta de desarrollador en Qualcomm y descargar el controlador más reciente. Con el paquete instalado, se puede probar un modelo de super-resolución ESRGAN para construir una aplicación en C++ compatible con estas nuevas PCs.
DirectML está en constante evolución y facilita el uso de varios aceleradores locales, variantes de hardware y marcos en Windows. No obstante, hay algunas limitaciones: los desarrolladores en C++ deben utilizar el paquete redistribuible DirectML 1.15.2 y la selección de NPU a través de la API de Python para ONNX Runtime aún no está disponible.
En paralelo, DirectML facilita el uso de NPUs para el aprendizaje automático basado en la web mediante el lanzamiento del WebNN NPU Developer Preview. WebNN es un estándar emergente que define cómo ejecutar modelos de aprendizaje automático en el navegador, integrando APIs de aceleración de hardware como DirectML. Esto permite que los desarrolladores web utilicen el GPU o NPU en dispositivos Windows, proporcionando aplicaciones web más rápidas e inteligentes.
Esta expansión fue posible gracias a la colaboración con socios de hardware como Intel, que ofrece soporte para procesadores Intel® Core™ Ultra con Intel® AI Boost. Se espera que esta integración proporcione herramientas para que los desarrolladores web creen y ejecuten características innovadoras de aprendizaje automático en sus aplicaciones, mejorando la experiencia del usuario.
Para acceder a la vista previa de WebNN, se necesitan los últimos controladores de NPU y una versión de Windows 11 compatible, junto con versiones específicas del navegador Microsoft Edge habilitadas para WebNN. Los desarrolladores pueden ejecutar modelos de ONNX en el navegador con mínimas modificaciones en el código. Las instrucciones detalladas y enlaces a modelos específicos están disponibles en el sitio web de WebNN Developer Preview.
DirectML sigue comprometido con la expansión de su soporte a PCs Copilot+ y marcos como WebNN y ONNX Runtime. Los desarrolladores están invitados a proporcionar feedback y reportar problemas a través del repositorio de GitHub de DirectML, en una misión continua para habilitar la IA en la web. Estén atentos a futuras actualizaciones y nuevas capacidades en esta emocionante área.