JALI zeigt auf der HPA 2026 seine per Audio automatisierte 3D-Gesichtsanimation 🤖

Veröffentlicht am 17. February 2026 | Aus dem Spanischen übersetzt

JALI Research kündigte seine Teilnahme am HPA Tech Retreat 2026 an. Es wird seine Tools für automatisierte 3D-Gesichtsanimation und audioangetriebene Charakterleistungssysteme präsentieren. Das Unternehmen zeigt, wie es expressive Animation aus Dialog in Echtzeit generiert, mit dem Ziel, Produktionsfristen zu verkürzen.

Una interfaz 3D muestra un rostro digital generándose en tiempo real a partir de ondas de audio, ilustrando animación facial automatizada.

Automatisierung der Gesichtsperformance aus der Stimmspur 🎙️

Die Technologie von JALI konzentriert sich darauf, die Audiospur des Dialogs zu analysieren, um Phoneme, Tonhöhe und Betonung zu extrahieren. Diese Daten treiben ein System an, das die entsprechenden Gesichtsmuskelbewegungen im 3D-Modell berechnet und anwendet. Der Prozess zielt darauf ab, die linguistische Kohärenz und die emotionale Intention des Schauspielers zu wahren und generiert Keyframes der Animation prozedural.

Auf Wiedersehen zu Aufnahmesitzungen mit zehn Kameras auf deinen Mund gerichtet 😅

Das könnte diese Tage der Gesichtserfassung verändern, an denen du Stunden mit Markern im Gesicht verbringst und Zeilen mit einer übertriebenen Grimasse wiederholst. Vielleicht ist bald das einzige Erfordernis, um einen Charakter zu animieren, ein gutes Mikrofon und zu vermeiden, mit vollem Mund zu sprechen. Der Ausdruck ein Gesicht machen wird eine wörtlich digitale Bedeutung erlangen.