Adobe présente un outil expérimental nommé MotionStream. Son objectif est de résoudre deux problèmes courants dans la génération de vidéo par IA : le manque de contrôle précis et la lenteur du processus. Au lieu de dépendre uniquement de prompts textuels, il permet aux utilisateurs de manipuler des objets et des angles de caméra en direct, en utilisant des contrôles intuitifs. Cette interaction vise à rendre la création de mouvement plus naturelle et à éliminer l'attente de rendus complets pour ajuster les détails.
Interface de manipulation directe et génération adaptative 🎮
La technologie repose sur une interface utilisateur qui traduit les mouvements du curseur et les ajustements de curseurs en paramètres de génération en temps réel. Le système interprète ces actions comme des vecteurs de direction et de force, intégrant les changements dans le flux d'images sans arrêter le processus. Cela permet de corriger des trajectoires, modifier la vitesse d'éléments ou changer de plans à la volée. L'approche technique priorise la faible latence pour maintenir l'illusion d'un contrôle direct sur la scène générée.
Adieu aux prompts de roman pour déplacer une tasse ☕
Avec cela, c'est fini l'ère des prompts du type une tasse de café qui glisse de 5,3 centimètres vers la droite avec un balancement doux, tandis que la caméra effectue un panoramique de 30 degrés en contre-plongée. Maintenant, nous pourrons pousser la fameuse tasse avec la souris et voir ce qui se passe. C'est une avancée notable pour ceux qui pensaient qu'animer un objet simple nécessitait les compétences d'un dramaturge et la patience d'un moine bouddhiste.