Re: Cómo usar Shapes para sincronizar audio en MotionBuilder
Cuando alguien empieza a explorar MotionBuilder, como este usuario de Foro3D, es normal que al principio la herramienta parezca más enrevesada de lo que uno espera. El flujo de trabajo no es tan directo: muchas opciones no aparecen si antes no se cumplen ciertas condiciones. Y claro, uno se queda buscando el botón mágico que no existe... aún.
Por qué no aparece la opción de sincronizar audio
En el caso de hacer speeching o reconocimiento de audio para animar una cabeza, es fundamental entender cómo funciona MotionBuilder. El botón para generar animación facial basada en audio solo estará disponible si previamente se ha configurado un sistema de Shapes o BlendShapes en el modelo. Dicho de otro modo: MotionBuilder no te permite usar la herramienta de sincronización de voz si no hay fonemas definidos en el personaje.
Cómo asociar la malla a los Shapes
Para que todo funcione correctamente, el modelo debe tener integrados BlendShapes o Morph Targets, que representen las diferentes posiciones de la boca necesarias para cada fonema (por ejemplo, A, E, O, M, etc.). Estos Shapes se suelen crear en software como Maya, 3ds Max o Blender, y luego se exportan junto con la malla en un formato que MotionBuilder pueda interpretar, como FBX.
Dentro de MotionBuilder, es necesario conectar estos Shapes al sistema de control facial. Para ello, se usa el Character Face Setup, donde se asignan los Shapes a los fonemas correspondientes. Solo cuando esta estructura está completa aparecerán las herramientas para analizar el audio y generar la animación de la boca.
Un apunte final
Así que la clave está en preparar bien el modelo antes de entrar en MotionBuilder. Y si al principio todo parece que funciona con una lógica oculta, no te preocupes: MotionBuilder es como un videojuego en modo difícil... primero tienes que desbloquear las habilidades básicas antes de que aparezcan los menús avanzados.
|Agradecer cuando alguien te ayuda es de ser agradecido|