Integracion 3d en video real
Buenas a todo el mundo.
Tengo una duda de postproducción.
He visto videos en los que se integra un coche, moto o nave espacial en un video real. La duda es, en esos videos tienen muchos factores, el render en sí, Ambient Occlusion, efectos, cambios de color, lo que no sé es cómo se hace todo eso. ¿Cómo se combina luego? ¿Cómo saco solo, por ejemplo, el humo del coche y lo combino luego a todo? Si podéis indicarme algún tutorial que hable de esto os lo agradecería.
Integracion 3d en video real
http://www.blenderguru.com/videos/in...mera-tracking/
Camera Tracking
En este caso es un socavón, pero una vez tienes preparada la escena y cogido el movimiento de la cámara, puedes añadir objetos a la escena y animarlos si quieres.
Esto es con Blender.
Lo puedes descargar gratuitamente desde su página.
http://www.blender.org/.
Integracion 3d en video real
Cita:
Iniciado por
Soliman
Lo mirado un poco por encima, la idea es dibujar una línea con el movimiento de la cámara y así poder poner objetos o animarlos.
Es bastante interesante y curioso.
Integracion 3d en video real
Cita:
Iniciado por
Nugu
Lo mirado un poco por encima, la idea es dibujar una línea con el movimiento de la cámara y así poder poner objetos o animarlos.
Es bastante interesante y curioso.
Cuando ves un vídeo en movimiento, no tienes los datos de la cámara. Con esto lo que se consigue es calcular esos movimientos con la cámara de Blender.
Una vez tienes la posición y movimientos de traslación y rotación de la cámara, ya tienes creada la escena y puedes añadir a ella todo lo que quieras.
Otro vídeo más, lástima qué este no lo tiene traducido.
Integracion 3d en video real
El asunto del tracking lo tengo claro. Lo que no sé es como siguen los pasos para montar la escena. Un ejemplo.
A partir del minuto 2:25, empiezan a aparecer CG WATERS, COLOR CORRECTION, DIFUSE PAS, SPeCULAR PAS, ETC, esto ¿se hace todo en el render o se hace después cuando ya está la animación hecha? ¿Cómo se monta? ¿en After Effectsí.
Integracion 3d en video real
Eso es ya postproducción.
O sea, primero integras los objetos con el video y luego dependiendo del programa qué utilices pues es la postproducción que en el caso de Blender serían los NoDOS, con los cuales puedes hacer corrección de color, insertar efectos de brillo, desenfoque, glare, defocus, etc.
Veo también que utilizan partículas y varias cosas más que también se pueden hacer con Blender (Physics)
La parte de los PASES es bastante compleja y hay que conocer muy bien lo que es la composición.
Y en la última parte veo que utilizan Chroma o Keying que en Blender también se puede hacer fácilmente.
Integracion 3d en video real
He leído en alguna parte que hacen los pases por separado y luego lo juntan, como si hicieran, por ejemplo, el humo de un derrumbe por una parte y los cascotes por otra para qué no se cuelge el ordenador.
Otro ejemplo.
A partir del min. 0:40 se ve lo que digo, renderizan los cascotes y luego hacen humo y polvo. ¿esto lo hacen por separado? ¿un render para cada efecto? Mi duda esta en: ¿Cómo lo unen?
Si, en posproducción, pero ¿con multiplicar? ¿cómo?
Lo de hacer las cosas lo se, fumefx, rayfire, 3ds Max, Blender, etc. Lo que no sé es como unirlo todo. ¿Existe algún tutorial por ahí?
Integracion 3d en video real
Me uno al tema. Estoy empezando a investigar como integrar casas en 3d sobre filmación de terrenos. No tengo claro cual es el mejor camino, parece ser que, el pftrak es la mejor opción. Si alguien puede aclararnos el tema, al menos para arquitectura y elementos estáticos, pues bienvenida sea.
Integracion 3d en video real
Cita:
Iniciado por
daniabril
Me uno al tema. Estoy empezando a investigar como integrar casas en 3d sobre filmación de terrenos. No tengo claro cual es el mejor camino, parece ser que, el pftrak es la mejor opción. Si alguien puede aclararnos el tema, al menos para arquitectura y elementos estáticos, pues bienvenida sea.
El Camera Tracking si es para videos o animaciones.
http://www.blendtuts.com/camera_tracking
Integracion 3d en video real
Cita:
He leído en alguna parte que hacen los pases por separado y luego lo juntan, como si hicieran, por ejemplo, el humo de un derrumbe por una parte y los cascotes por otra para qué no se cuelgue el ordenador.
A ver, a groso modo el asunto es así:
En el programa 3D que uses haces renders por elementos, es decir, uno para los objetos, otro solo con las sombras, otro con los brillos, alpha, ambient Occlusion, z-depth, lo que necesites según la complejidad de la escena y lo minuciosa qué sea la postproducción que le vayas a hacer.
Cada uno de estos renders será un vídeo para entendernos, uno con los objetos de tu escena (o uno para cada objeto), otro solo con las sombras de la misma escena, etc. Aunque hablo de vídeo, lo ideal en esta fase es renderizar en algún tipo de secuencia de imágenes sin compresión, como, por ejemplo, targa o similares (en vez de hacerlo directamente en avi, (*.mov), y usar códecs de compresión), ya que este tipo de formato no está comprimido (así no pierdes calidad) y además al ser una secuencia de imágenes separadas (una para cada fotograma) será reconocido por cualquier editor de vídeo sin problema (pero estos programas lo manejan como un vídeo normal, no tendrás que lidiar con miles de imágenes por separado, solo cargas la primera de la secuencia le indicas que es una secuencia y listo).
¿Y para qué se hace esto?
Pues bien, se suelen hacer diferentes renders por elementos no para qué no se cuelgue el ordenador al calcular toda la escena en el programa 3d (aunque es cierto que puede servir para a este propósito en el caso de andar muy justo de equipo procesando escenas muy pesadas), sino más bien porque así tienes el control de cada componente por separado.
Te explico: imagina qué tienes un vídeo real de una calle de tu ciudad al que le haces un tracking de cámara para poder integrar luego un robot hecho en tu software 3d favorito. En el programa 3d aplicas el tracking y crearas una cámara virtual que se moverá sincronizada con los movimientos de la cámara real de la grabación de vídeo. De esta forma cuando hagas el render de esa escena en 3d (con el robot y el movimiento de cámara virtual) el vídeo que saldrá de ese render lo usaras para juntarlo con el vídeo real (con un programa de postproducción y/o edición de vídeo).
Por supuesto como has hecho el tracking, el robot se integra con la escena real en cuanto a movimiento y rotación de cámara, pero aun así se notara qué es un añadido ya que para qué no cante tendrás que ajustar el tono, brillo, contraste, grano, del vídeo del robot para asemejarlos al del vídeo real.
Si antes has hecho un render de todo junto, es decir, el robot con sus texturas, sombras, luces, brillos en un único pase (un render normal) será mucho más complicado después ajustar algo en particular que si tienes un vídeo con el render de cada cosa por separado. Así sí, por ejemplo, tienes que, aclarar las sombras para qué se parezcan a las que tienen los objetos en el vídeo real, puedes hacerlo directamente sobre el vídeo en el que renderizaste solo las sombras, y no con todo junto donde tendrías que crear máscaras o algo similar (en el programa editor de vídeo) para poder regular solo las sombras sin que afecte al resto.