Adobe stellt ein experimentelles Tool namens MotionStream vor. Sein Ziel ist es, zwei häufige Probleme bei der KI-generierten Videoproduktion zu lösen: den Mangel an präziser Kontrolle und die Langsamkeit des Prozesses. Anstatt sich nur auf Text-Prompts zu verlassen, ermöglicht es den Nutzern, Objekte und Kamerawinkel live zu manipulieren, indem sie intuitive Steuerelemente verwenden. Diese Interaktion soll die Erstellung von Bewegung natürlicher gestalten und das Warten auf komplette Renderings für Detailanpassungen eliminieren.
Oberfläche zur direkten Manipulation und adaptive Generierung 🎮
Die Technologie basiert auf einer Benutzeroberfläche, die Mausbewegungen und Schieberegler-Einstellungen in Echtzeit in Generierungsparameter übersetzt. Das System interpretiert diese Aktionen als Richtungs- und Kraftvektoren und integriert die Änderungen in den Frame-Fluss, ohne den Prozess zu unterbrechen. Dies ermöglicht es, Trajektorien zu korrigieren, die Geschwindigkeit von Elementen zu modifizieren oder Kameraeinstellungen spontan zu ändern. Der technische Ansatz priorisiert niedrige Latenz, um die Illusion der direkten Kontrolle über die generierte Szene aufrechtzuerhalten.
Schluss mit Roman-Prompts, um eine Tasse zu bewegen ☕
Damit ist die Ära vorbei, in der man Prompts wie eine Kaffeetasse, die sich 5,3 Zentimeter nach rechts schiebt mit sanftem Schwung, während die Kamera eine 30-Grad-Schwenkbewegung im Untersicht macht schreiben musste. Jetzt können wir die besagte Tasse einfach mit der Maus schieben und sehen, was passiert. Es ist ein bemerkenswerter Fortschritt für alle, die dachten, ein einfaches Objekt zu animieren erfordere die Fähigkeiten eines Theaterautors und die Geduld eines buddhistischen Mönchs.