Hola.
Un fenómeno que afecta a todos los motores de renderizado importantes en 2025. La búsqueda de la inmediatez ha obligado a los motores tradicionalmente “puros” de CPU a simplificar sus arquitecturas para que puedan ejecutarse en los núcleos RT de las tarjetas gráficas.
Mis conclusiones:
V-Ray (El espejo de Corona)
Chaos, al ser dueña de ambos, ha unificado el código.
- El sacrificio: V-Ray solía tener múltiples algoritmos de GI (como Photon Mapping o Bi-Directional Path Tracing en versiones muy antiguas).
- La realidad en 2025: Se ha estandarizado casi todo hacia el Brute Force Primario (reducido a un solo rebote) + Light Cache (truco para los secundarios). ¿Por qué? Porque es el algoritmo que mejor se traduce a GPU. Los métodos más complejos de transporte de luz han sido enterrados para que el “V-Ray GPU” y el “V-Ray CPU” den resultados similares.
Arnold (Autodesk)
Arnold fue durante décadas el estándar de la pureza en CPU en Hollywood.
- El cambio: Con el lanzamiento de Arnold GPU, tuvieron que reescribir gran parte de sus shaders (especialmente los de volumen y piel/SSS).
- La consecuencia: Si quieres que tu escena sea compatible con GPU, no puedes usar ciertos nodos de sombreado complejos de la versión de CPU. Muchos artistas de efectos visuales (VFX) se quejan de que Arnold ha “frenado” su innovación en CPU para que la versión de GPU no se quede tan atrás visualmente.
RenderMan (Pixar)
Incluso el motor de Pixar tuvo que rendirse con RenderMan XPU.
- El límite: XPU (que usa CPU y GPU a la vez) todavía no soporta todas las características de la versión de CPU (RIS).
- El compromiso: Pixar admite abiertamente que para usar la GPU, el transporte de luz tiene que ser unidireccional. Las escenas con integrales de luz extremadamente complejas que requieren Path Tracing Bidireccional siguen siendo exclusivas de CPU, creando una “brecha de realismo” dentro del mismo software.
KeyShot
Al adoptar el modo GPU (basado en NVIDIA OptiX), muchos usuarios notaron que las cáusticas de cristal y la dispersión de luz cambiaban. La GPU simplemente no podía resolver con la misma finura los rayos que atraviesan múltiples capas de material dieléctrico (vidrio sobre líquido sobre vidrio).
...
¿Por qué está pasando esto en toda la industria?
- Coste vs. Tiempo: Para las empresas de software, mantener dos códigos fuente distintos (uno para CPU pura y otro para GPU rápida) es carísimo. La solución es crear un “punto medio” que funcione en ambos, lo que inevitablemente baja el techo técnico de la CPU.
- Denoising por IA: La industria está sustituyendo el Path Tracing complejo (calcular cada rebote de luz) por Inteligencia Artificial. En lugar de calcular 10,000 rebotes de luz reales (CPU), calculan 500 y dejan que la IA de NVIDIA o Intel “adivine” el resto. Esto es rápido, pero no es la “ruta real” de los rayos.
Conclusión
El realismo purista está en retroceso. Estamos pasando de una era de “Fidelidad Física Absoluta” (CPU) a una era de “Aproximación Visual Suficiente” (GPU/IA).
Para los que buscan la pureza del algoritmo bidireccional y el transporte de luz complejo, el catálogo de opciones se está reduciendo a versiones antiguas de motores o a motores académicos/especializados (como Maxwell Render), que se niegan a sacrificar la precisión por la velocidad, pero que por lo mismo, están perdiendo cuota de mercado frente a la rapidez de Vantage o Arnold GPU.
Es importante mencionar que con las actualizaciones de 2025, Vantage utiliza tecnologías como ReSTIR GI (Reservoir Spatio-temporal Importance Resampling). Esto permite que, incluso con menos rebotes de luz, la calidad de la iluminación global sea mucho más cercana al Path Tracing puro de lo que era hace dos años, reduciendo drásticamente el ruido sin sacrificar tanta precisión. Pero no lo he podido probar, solo tengo una GT 1030 DDR5 con 2 GB de VRAM sin núcleos RT.
Un saludo.

Citar