Unir tracking facial con modelo 3D en 3ds Max
Cuando alguien realiza un tracking facial, lo que está haciendo es capturar el movimiento real de su cara a través de puntos de referencia que se siguen cuadro a cuadro. En este caso, los puntos ya están bien exportados a 3ds Max mediante un script, lo cual es un paso enorme, porque significa que el tracking funciona. Ahora, el siguiente paso lógico es hacer que un modelo 3D de una cara se mueva exactamente igual, como si esos puntos fueran los músculos virtuales de ese rostro digital.
Para lograr esto, lo más directo en 3ds Max es usar helpers o dummies en las posiciones de los puntos de tracking. Luego, esos dummies pueden vincularse a los huesos del sistema facial del modelo 3D usando Constraints, como Position Constraint o LookAt Constraint, según lo que quieras controlar. El truco está en que esos puntos no van a deformar la malla por sí solos, pero sí pueden controlar huesos que luego deforman la cara mediante un rig facial.
Si el modelo ya tiene un sistema de huesos o morph targets configurado, puedes incluso hacer que ciertos puntos del tracking activen expresiones o gestos. Esto se puede conectar con Wire Parameters o mediante un sistema más avanzado como Script Controllers, que permiten traducir el movimiento del tracking en animación del modelo.
Más vale cara propia que mil plugins
Hay soluciones comerciales como Faceware o Dynamixyz que hacen este trabajo casi en automático, pero hacerlo con tus propios datos tiene su gracia. Sobre todo si, como aquí, el modelo se mueve con tu propia cara. Eso sí, después de todo este esfuerzo técnico, el resultado puede ser tan realista... que da miedo. O, con un poco de mala suerte, tan expresivo como una patata con bigote. ¡Pero al menos es tu patata con bigote!
|Agradecer cuando alguien te ayuda es de ser agradecido|