Madre mía que buena pinta tiene esto, estoy deseando que saquen la demo para probarlo (sobre todo después de leer que se mea al vrayrt en la mayoría de ocasiones): http://www.refractivesoftware.com/.
Madre mía que buena pinta tiene esto, estoy deseando que saquen la demo para probarlo (sobre todo después de leer que se mea al vrayrt en la mayoría de ocasiones): http://www.refractivesoftware.com/.
En algún momento, iba a aparecer. Tiene muy buena pinta, a ver cuándo está listo que tal rinde frente a Maxwell o similar.
Les ha tomado años empezar a aprovechar los GPU.
Pues sí, a ver qué tal. Una cosa, ese radiance que escribe en el foro del enlace, debe ser el mismo radiance de Indigo o lux, ¿no? Saludos.
¿Frente a Maxwell? Pero si lo está comparando con Vray que es Biased y se lo mea, imagínate al otro. Vamos, que una imagen de esta calidad en 30 segundos y con una gráfica de juegos, pues es para quitarse el sombrero:
-- IMÁGENES ADJUNTAS --
![]()
Sí, es el mismo, es un monstruo el tío.Pues sí, a ver qué tal. Una cosa, ese radiance que escribe en el foro del enlace, debe ser el mismo radiance de Indigo o lux, ¿no? Saludos.
Bueno, no me refiero solo a tiempos, no dudo que le van a dar vueltas a cualquier render por CPU, sino también a calidad. Maxwell a alcanzado cotas de realismo alucinantes.¿Frente a Maxwell? Pero si lo está comparando con Vray que es Biased y se lo mea, imagínate al otro. Vamos, que una imagen de esta calidad en 30 segundos y con una gráfica de juegos, pues es para quitarse el sombrero:
![]()
Madre, esto tiene muy buena pinta.With Even a single Mid-range GPU you can typically expect todo se ha 1000%-1500% (10x todo 15x) speed increase over a typical un-Biased, CPU based renderer.Si puedo mover el sol de la imagen que ha puesto Caronte en tiempo real, que dios nos aguarde.Not only is Octane render the fastest un-Biased renderer available, it is a los fully interactive. Settings can be left at a modérate level while adjusting the parameters of the scene such as materiales, lighting options, and Camera parameters in real time.
Igualmente mi instinto humano me dice que en este caso si que hay trampa y cartón. Vamos, que si es tan poderoso este método de render, como es que empresas tipo Pixar no lo han investigado? O es que, simplemente lo han hecho y no lo han sabido implementar tan bien?
Las granjas de renders me da que serán planetas de renders con este motor ¿no?
Última edición por krateos_29; 11-01-2010 a las 20:08
(Nvidia se está frotando las manitos).
Bueno, si tenemos en cuenta que los motores de render unbiased se basan en las leyes de la física, en teoría todos deberían llegar a un resultado muy, muy similar con la única diferencia que uno tardaría más que otro en llegar a ese resultado. Naturalmente si comparamos features idénticas, porque si uno de estos motores todavía no soporta (por ejemplo), pues lógicamente el resultado no será el mismo si hay en la escena materiales que la necesiten.
Por lo que he podido leer, tiene dos limitaciones que vienen dadas por la propia tarjeta gráfica, y son: el tamaño de las texturas y de la geometría, ya que ambas deben caber en la Ram de la gráfica.
Así que en escenas muy complejas con millones de polígonos o gran cantidad de texturas en alta resolución, este motor se quedará corto, a no ser que tengamos una tarjeta super profesional (cosa que esta al alcance de muy pocos).
Vaya. Cuando poste aún no había visto la imagen. Que pasada. Caronte. Ahora se entiende que saliera corriendo de lux sin casi hacer las maletas, viendo en que está trabajando ahora.
Eso será la teoría, pero no funciona así. Una imagen de Fryrender, si bien es de muy alta calidad y se ve unbiased, no es exactamente igual a Maxwell.Bueno, si tenemos en cuenta que los motores de render unbiased se basan en las leyes de la física, en teoría todos deberían llegar a un resultado muy, muy similar con la única diferencia que uno tardaría más que otro en llegar a ese resultado.
Hay diferente implementación matemática u optimización o conversión de onda lumínica o algo, vaya a saber que, que difiere.
Igualmente de Maxwell, lo que me mato fue el displacement. Detalle prácticamente ilimitado con una Ram más bien humilde.
Qué bien. Justo lo que necesitamos todos aquellos que nos dedicamos a esto. Hace como dos días estaba investigando sobre Gelato, el renderer de Nvidia también GPU based, pero no me convenció mucho lo que vi, que no fue mucho porque eran las 4:30 am y me moría de sueño. Pero este Octane se ve muy bien. A esperar la demo.
Lo que de verdad es increíble es el precio, ¿lo habéis visto? 99EUR por la beta y 199EUR valdrá la v1. Ya tengo ganas de probarlo a ver qué tal, si no es una pifia venderán mucho porque así de regalado comparado con los precios de los demás.
Bueno, según he leído, no todos los unbiased son unbiased puros, así que, igual es por eso.Eso será la teoría, pero no funciona así. Una imagen de Fryrender, si bien es de muy alta calidad y se ve unbiased, no es exactamente igual a Maxwell.
Hay diferente implementación matemática u optimización o conversión de onda lumínica o algo, vaya a saber que, que difiere.
Igualmente de Maxwell, lo que me mato fue el displacement. Detalle prácticamente ilimitado con una Ram más bien humilde.
Espectacular. Oye, no hay blenderheads metidos en el ajo? Enrico cerica me suena.
Como he dicho arriba, el programador principal es radiance (el del luxrenderer, Indigo.) y sí, los betatesters son todos blenderheads.
Y eso de unbiased puros?
Aqui quiero poner una imagen bonita de mi pagina, pero no puedo...ojete.
Este video muestra el funcionamiento del motor, una pasada (por si alguien no ha hurgado en el enlace puso Caronte).
http://www.youtube.com/watch?v=2bg_ixqfgmg
Obtén enseñanza tradicional en arte y cine. Los ordenadores solo son herramientas. Ellos no pueden tomar decisiones creativas, y solo pueden crear trabajos tan buenos como tus conocimientos y tu experiencia les permita.
Victor Navone
Ser "animador" es un regalo que te ganas y un honor que deben adjudicarte los otros.
Chuck Jones
La tecnología no hace las pelí*culas, la gente las hace. No eres un animador sólo porque puedas mover un objeto del punto A al punto B. Eres alguien quien le da vida a un personaje, que es algo que el software y la tecnología no puede dar.
John Lasseter
Me refería a que algunos (ejemplo: Indigo) que se las dan de unbiased, no lo son del todo, o sea, que realizan parte de los cálculos como un motor estándar Biased, para acelerar los resultados.Y eso de unbiased purosí.
Que conste que si han usado esta tecnología Nvidia en avatar. Esta y más: tesla, y todo lo que Nvidia tenía bajo la manga escondido.
Cuda-based GPU driven versión that runs 25 times faster, utilizing an Nvidia tesla s1070 GPU-based server instead of a CPU based server.
Together, Nvidia and Weta co-developed a new pre-computation engine, dubbed pantaray, todo bring high-performance computing power into Wetas VFX pipeline. The name pantaray is a clever twist on a greque aphorism panta rhei which means everything flows. This powerful ray-tracing system was designed specifically todo accelerate pre-computation of scene Occlusion información used throughout Wetas rendering pipeline, todo allow quik and dynamic re-computation of image-based lighting. http://www.Nvidia.com/object/wetadigital_avatar.html.
Blog con mis practicas de animación:
http://visualbug.wordpress.com/
mi pagina web: http://visualbug.com/
Me subo al carro de los interesados, mirando su web, parece bastante bueno, y su precio lo veo una pasada. Saludos.
Habéis visto esto, sobre todo los que comentáis lo de vrayrt? http://www.youtube.com/watch?v=soyr1sqmro4. http://www.youtube.com/watch?v=erosfnrqetg.
Aunque me extraña que no lo hayáis visto, es de agosto del 2009, también corriendo en Cuda.
Mejor, que mejor, competencia en velocidad, calidad y precio. Supongo que Octane render va a hacer que ChaosGroup se ponga las pilas y le de prioridad al proyecto, además de añadir la dispersión al progressive Path tracing.
Que comience el juego.
Lo del autofocus me ha encantado. Lo del precio lo veo un acierto. Quieren hacer llegar el producto a más gente. Por lo que veo van muy en serio y tienen las expectativas muy altas. Ojalá sea tan bueno como lo mostrado.
200 euros por cada IP, son 2000 euros por una granja de 10 equipos. El precio es más del doble de lo que cuesta Vray. Pero si tenemos en cuenta la velocidad y calidad, es más rentable.
Si cumplen lo que prometen, porque por ahora es una beta bastante limitada, más las limitaciones de renderizar con una GPU con Ram local. Me gustaría ver cómo renderiza escenas llenas de displace, cientos de texturas y Shaders complejos, millones de polígonos además por ahora solo muestran demos con ventanas de baja resolución, igual que hacen los de Vray.
Para eso esta rendeman y sus diferentes variantes.Me gustaría ver cómo renderiza escenas llenas de displace, cientos de texturas y Shaders complejos, millones de polígonos además por ahora solo muestran demos con ventanas de baja resolución, igual que hacen los de Vray.
Un saludo
Houdini Addict
Powered by UNIX
If it looks good enough, it's good!
Acaso no es Blender?Este video muestra el funcionamiento del motor, una pasada (por si alguien no ha hurgado en el enlace puso Caronte).
http://www.youtube.com/watch?v=2bg_ixqfgmg
Hombre esto es una ayuda y si todo es más rápido de cara al artista, mejor que mejor, pero desbancar lo que se dice desbancar, como que no.
Aqui quiero poner una imagen bonita de mi pagina, pero no puedo...ojete.
Para eso esta Vray, y un poco paciencia, pero nada de tiempo real, ni por GPU.Para eso esta rendeman y sus diferentes variantes.
Me da la impresión de haber perdido un montón de horas de mi vida esperando que se finalizaran los renders. De aquí unos años un artista digital será eso, artista. Cada vez se necesita menos técnica para conseguir resultados sorprendentes en menor tiempo. Por el bien de todos, espero.
Pues yo espero que te equivoques.
Aquel que pregunta, es tonto un rato. Aquel que no pregunta, es tonto toda la vida.
En parte también lo espero. Queremos que todo avance rápido, pero nos da miedo que nos jodan el puesto después de los esfuerzos invertido. A reciclarse que el tren no para.
Y otro nuevo que entra en juego. http://www.randomcontrol.com/Arion. El motor de tiempo real de Fryrender. Saludos.
Luis.
Última edición por devista; 14-01-2010 a las 18:03
En la vida solo hay dos cosas seguras: la muerte y los impuestos.
Y Mental Ray tampoco se queda atrás. Con Mental Ray 3.8 incorporan Iray: http://www.mentalimages.com/products...ray/irayr.html.
Vaya, a ver quién da más.
Todos se quieren subir al carrito de los GPU. Posdata: muy cachodo como todos se autonombran los pioneros en el tema.
Última edición por Wayfa; 14-01-2010 a las 19:33
Vaya se creen que han inventado la sopa de ajo. A mí ya me va bien. Más competencia = mejor para el usuario.
Ostia. Qué pinta de flipado tiene el del Iray.
Pensé lo mismo, cara de loco informático.Ostia. Qué pinta de flipado tiene el del Iray.
Todo muy lindo, etc. Pero los tiempos son los mismo que uno puede sacar con el Mental Ray o más. La escena de los 30seg, es más que nada mapeado puro con algunos detalles.
Pero viendo la galería los tiempos no bajan de los 5 minutos hasta para escenas relativamente sencillas.
Yo le tengo fe a la versión Mental Ray con soporte GPU, que según leí está muy pronta a salir.
Yo espero que venga integrado en las nuevas versiones de Autodesk, sería lo más lógico viendo el panorama, y la caña que pega Blender.
Vaya friki.
Te acuerdas de dónde lo leíste? Saludos.Yo le tengo fe a la versión Mental Ray con soporte GPU, que según leí está muy pronta a salir.
Luis.
En la vida solo hay dos cosas seguras: la muerte y los impuestos.
Pues nada, Vray, Fryrender, LuxRender, Mental Ray, Octane render, hacemos porra a ver cuándo va a presentar algo next limití.
Estamos a las puertas de la muerte de los días largos y aburridos de retoque de materiales, de esos de retoco, render de 2 minutos, retoco, render de 3 minutos.
Saldrán tarjetas gráficas con más de 4 Gb de Ram por menos de 1500 euros? Vaya tesla.
Sacara Intel algo para contrarrestar que la gente se gaste la pasta en gráficas en lugar de en cpus.
Todo esto viene por la pelea que hubo entre Nvidia e Intel con el larrabe?
El tío de Mental images es una mezcla de Albert Einstein y doc, de regreso al futuro?
Desarrollara Nvidia alguna manera de que sus GPU puedan compartir memoria en un futuro?
Se dejara las pelotillas Ati ayudando a portar el Cuda a OpenCL?
Para cuando estará todo el tema del render por GPU establecido y las cosas claras para que nosotros podamos mover ficha?
Se pueden hacer tantas preguntas en un solo mensaje?
Podría sacar más preguntas, pero de momento lo voy a dejar así.
Ati se estará meando en los pantalones ya mismo por desarrollar algún chip que sirva para todas estas macanas, o no se querrá perder parte del pastel que se va a almorzar Nvidia.
Serán todos los rendes salidos por GPU de plastiquete?
Aqui quiero poner una imagen bonita de mi pagina, pero no puedo...ojete.
¿Hará alguno un render real por defecto, alguna vez? ¿O habrá que estudiar más para intentar hacerlo que para modelar?
¿Qué cunde más el verdadero artista (modelador o animador) o el técnico de puesta en escena (o sea, usuario de Mental, Vray, o demás cachivaches técnicos)?
¿Qué fue antes el huevo o la gallina?
¿Y hablan de tiempo real? Antes llegamos a marte.
Mi Blog de Tanques 3D :-)
http://thetankmaker.blogspot.com/
Mi Galeria
http://www.foro3d.com/album.php?albumid=411
Yo pienso que las GPU desaparecerán, tarde o temprano serán integradas en chips de propósito general, hasta ahora en la informática tod ha evolucionado igual, primero se crea un dispositivo muy especializado y luego se va integrando en otro de propósito general, los renders pues si cada vez irán siendo más realistas, pero conforme se van alcanzado más cotas de realismo se van alcanzando nuevos problemas técnicos así que, como suele ocurrir en esto tendremos un 50% arte y otro tanto de técnica.
Un saludo
Houdini Addict
Powered by UNIX
If it looks good enough, it's good!
Dime si me equivoco, pero con los unbiased me da la impresión de que se necesita menos técnica. Si no fuera por los tiempos y el ruido, creo yo que casi todo el mundo los utilizaría.
No tanto. En unbiased no dispones de muchos trucos, no puede poner brillos donde no los hay ni inventarte luces fantasmas sin representarlas físicamente.
Son cómodos, pero requieren cierta técnica.
Bueno ya que todos hablan de render con la GPU hace unos días me encontré uno que se llama furryball(solo para Maya)pero parece tener buenas característica+alto precio. http://www.youtube.com/watch?v=zcepx5v2ql8. http://www.youtube.com/watch?v=wl-lmxoukwe y su página web http://furryball, a-studio, EU/. Alguien lo ha probado para decir que tal va el framerate y si vale la pena?