Sí, es posible hacer que un personaje hable de forma semi-automática en
3ds Max usando un archivo de audio, sobre todo si ya tienes configurados
morph targets o morphers para las distintas posiciones de la boca. No es magia, pero existen herramientas que ayudan bastante con el proceso de
lip sync, sin tener que animar cada fotograma a mano como en los años dorados del stop motion.
Usa herramientas de lipsync automáticas
Una opción integrada en Max (desde hace varias versiones, aunque algo oculta) es usar
Audio Controllers, que permiten vincular la forma de un morpher a la forma de la onda de audio. Aunque este método es bastante básico y no muy preciso, puede servirte como punto de partida. Para algo más sólido, lo mejor es recurrir a plugins o software externo como
Papagayo-NG, que genera una secuencia de visemas a partir de audio y texto, y luego importar esa animación como datos para tus morph targets.
También puedes usar servicios de IA o herramientas externas
Otra forma más actual es generar el lipsync automáticamente con software como
Blender + Rhubarb Lip Sync, y luego exportar esa animación a 3ds Max vía
Alembic, FBX o con scripts personalizados. Si usas
Character Studio, hay formas de adaptar los visemas a través de
Phoneme Mapping. Además, algunos motores como
Unreal Engine 5 ya incluyen soporte para sincronizar audio y labios con IA. Puedes generar ahí la animación y luego importarla a Max.
Si tu personaje no habla, igual es que está enfadado
Y si tras todo esto tu personaje sigue sin hablar, tranquilo, no es personal. Puede que solo esté esperando a que le pongas una pista de audio decente. Eso sí, si le das un monólogo de Shakespeare, no olvides activar el
Auto Key... o acabará declamando con la boca cerrada. Muy intenso, pero poco expresivo.