Una nueva discusión ha emergido en la comunidad de GPU, originada por un hilo en Reddit que cuestiona la fortaleza de la “muralla” de CUDA, la plataforma de NVIDIA que combina APIs, bibliotecas, herramientas y una vasta experiencia acumulada. La aparición de herramientas de programación asistida por agentes ha comenzado a desafiar esta barrera, prometiendo simplificar la tarea de portar entre plataformas.
El debate fue avivado por la afirmación de un usuario sobre haber logrado portar un backend completo de CUDA a ROCm en tan solo 30 minutos usando Claude Code, un entorno de codificación agéntica de Anthropic. Esta conversión, según el usuario, se realizó sin capas intermedias y enfrentando solo un problema significativo: las diferencias en el diseño de datos.
La importancia de este avance radica en que, aunque ROCm de AMD no es nuevo, podría transformar el “coste de salida” para los desarrolladores. AMD ha promovido ROCm como una alternativa para cómputo acelerado en GPU, utilizando HIP para facilitar la portabilidad de código CUDA con cambios razonables. Sin embargo, portar código no es solo compilarlo; implica mantener la corrección de resultados, recuperar o minimizar pérdidas de rendimiento y sustituir dependencias específicas de CUDA, aspectos que suelen convertir estos proyectos en costosos y desafiantes.
Si las herramientas agénticas consiguen reducir el tiempo de traducción inicial, el enfoque del debate cambia: se trata de cuánto cuesta realmente validar y optimizar el portado, y cuántos casos quedan fuera de lo automatizable.
La afirmación del usuario de Reddit cobra importancia al estar vinculada a un pull request público en Leela Chess Zero (lc0), donde se introduce un backend ROCm completo. Aunque esto verifica su trabajo en un plano técnico tangible, las conclusiones acerca del “fin de la muralla de CUDA” siguen siendo, por ahora, más emocionales que universales.
Es importante señalar que las herramientas agénticas como Claude Code destacan en tareas de transformación mecánica, como mapear llamadas CUDA a equivalentes en HIP/ROCm, renombrar tipos o reestructurar ficheros y flags de compilación. Sin embargo, donde se rompe la promesa del portado rápido es en la optimización específica de hardware, las diferencias semánticas y de comportamiento, las dependencias del ecosistema, y el coste de validación y mantenimiento, que no son retos puramente sintácticos.
El impacto potencial de estos avances es significativo: si logra reducirse el coste inicial de portado, los equipos que consideren adoptar GPUs de múltiples proveedores podrían sentirse menos atrapados. Para AMD y su ecosistema, cada ejemplo de migración rápida actúa como marketing orgánico, mientras que para NVIDIA, el verdadero riesgo no es la desaparición de CUDA, sino ser considerado solo un destino más entre muchos.
Aunque el término “fin de la muralla” pueda parecer prematuro dado que esta no es solo una barrera técnica, sino también de formación, herramientas maduras, bibliotecas, soporte y talento accesible, el contexto más amplio muestra una creciente búsqueda de alternativas al monopolio de CUDA. Con la ayuda de agentes, la industria podría estar reconfigurando su relación con las herramientas de NVIDIA, cambiando así el panorama del mercado de GPU.







