
Déplacer des os avec une texture ? Dans Blender, c'est possible
Bien que Blender ne permette pas de connecter directement des textures à un armature, tu peux utiliser des drivers pour convertir une image ou un shader animé en mouvement réel. Pas besoin de Python ni d'addons étranges : juste de la créativité et un peu de connaissance des nœuds.
Méthode de base : utiliser une texture pour déplacer un Empty
L'une des techniques les plus propres consiste en :
- Créer une texture animée (par exemple, du bruit ou une image en mouvement).
- L'appliquer dans un matériau sur un plan ou un Empty.
- Utiliser Shader to RGB et séparer les canaux avec Separate XYZ.
- Connecter ces valeurs à un Value Node qui servira de driver.
- Assigner ce driver à la rotation, la position ou l'échelle d'un os du rig.
Ce flux est idéal pour des effets glitch, de vibration, ou des mouvements organiques comme des muscles, la respiration ou des données externes comme l'audio.
Alternative avec géométrie et déformateurs
Une autre façon créative est :
- Utiliser Displacement pour déformer un maillage avec la texture.
- Utiliser Surface Deform ou Mesh Deform pour que l'armature suive cette surface animée.
Ainsi, le mouvement généré par la texture se traduit sur la géométrie, puis sur les os. C'est un peu plus indirect, mais ça fonctionne pour des simulations non traditionnelles.
Considérations techniques
Ce type de rigging expérimental ne s'exporte pas facilement vers FBX ou des moteurs comme Unity sans "bakear" l'animation. L'idéal est de l'utiliser pour un render interne dans Blender ou comme outil pour générer du mouvement procédural.
Réflexion finale
Blender te permet de déplacer un squelette entier avec un shader… mais il ne peut pas encore l'exporter sans protester. C'est Blender : puissant, chaotique et plein de surprises.
Le meilleur ? Pas besoin de scripts. Juste des nœuds, de la logique et un peu d'art.