JALI Research kündigte seine Teilnahme am HPA Tech Retreat 2026 an. Es wird seine Tools für automatisierte 3D-Gesichtsanimation und audioangetriebene Charakterleistungssysteme präsentieren. Das Unternehmen zeigt, wie es expressive Animation aus Dialog in Echtzeit generiert, mit dem Ziel, Produktionsfristen zu verkürzen.
Automatisierung der Gesichtsperformance aus der Stimmspur 🎙️
Die Technologie von JALI konzentriert sich darauf, die Audiospur des Dialogs zu analysieren, um Phoneme, Tonhöhe und Betonung zu extrahieren. Diese Daten treiben ein System an, das die entsprechenden Gesichtsmuskelbewegungen im 3D-Modell berechnet und anwendet. Der Prozess zielt darauf ab, die linguistische Kohärenz und die emotionale Intention des Schauspielers zu wahren und generiert Keyframes der Animation prozedural.
Auf Wiedersehen zu Aufnahmesitzungen mit zehn Kameras auf deinen Mund gerichtet 😅
Das könnte diese Tage der Gesichtserfassung verändern, an denen du Stunden mit Markern im Gesicht verbringst und Zeilen mit einer übertriebenen Grimasse wiederholst. Vielleicht ist bald das einzige Erfordernis, um einen Charakter zu animieren, ein gutes Mikrofon und zu vermeiden, mit vollem Mund zu sprechen. Der Ausdruck ein Gesicht machen wird eine wörtlich digitale Bedeutung erlangen.