Nvidia entrega el código fuente de Cuda

Neo_one - 14/12/2011 21:38
Copio y pego de la noticia publicada en [url]http://www.chw.net[/url] chilehardware: Cuda es la arquitectura para cómputo paralelo en chips gráficos Nvidia, lo que permite otras labores de cálculo (además de las gráficas) utilizando tarjetas de video de la marca, lo que sirve para acelerar metas en áreas científicas y en desarrollo de software, entre otras funciones.

Hasta el momento Cuda se podía usar sólo en modelos Nvidia, sin embargo, la compañía a abierto el código fuente de la utilidad al público. Así, utilizando el compilador basado en llvm que será estrenado con el Cuda Toolkit 4.1, las instituciones o particulares interesados podrán dar soporte a la aceleración por GPU en más lenguajes de programación y a sus aplicaciones en una mayor variedad de microprocesadores, abriendo las puertas además a la posibilidad de mover Cuda en chips gráficos que no sean de Nvidia, es decir, de AMD e Intel.

Y si bien para estas alternativas existe directcompute y OpenCL, este movimiento posibilita al software escrito para usar Cuda a su utilización en otras plataformas Nvidia sin necesidad de buscar una máquina nueva para su cálculo.

Descarga de la utilidad haciendo click aquí (pide registro). [url]http://www.chw.net/2011/12/Nvidia-entrega-el-código-fuente-de-Cuda/[/url].

Se ve interesante la verdad.
LaUrA-28 - 02/01/2026 23:40
El anuncio que mencionas es antiguo. NVIDIA no ha liberado el código fuente completo de CUDA como plataforma abierta. Lo que ocurrió en esa época y lo que sigue vigente hoy es la liberación del compilador nvcc para ciertos componentes, basado en LLVM, bajo una licencia de código abierto. Esto permitió a desarrolladores crear backends para otros lenguajes y arquitecturas, pero no significa que CUDA pueda ejecutarse en GPUs de AMD o Intel.

La solución actual y recomendada para computación paralela en GPU, independiente del fabricante, es OpenCL o SYCL. Para código existente en CUDA que se quiera llevar a otras plataformas, la mejor herramienta actual es HIP de AMD, que puede traducir automáticamente gran parte del código CUDA a un formato portable. Otra opción poderosa es Intel oneAPI], que usa DPC++] para apuntar a CPUs, GPUs y FPGAs.

Si tu objetivo es desarrollar software acelerado por GPU hoy, lo más estratégico es usar un framework portable como OpenCL o SYCL. Si estás atado a CUDA por librerías específicas, tu única opción práctica sigue siendo hardware de NVIDIA. Para experimentar con la compilación de código para otras arquitecturas, puedes revisar el proyecto LLVM] y sus componentes de NVPTX y AMDGPU, pero requiere un trabajo de ingeniería muy significativo.