2026年、人工知能はキャラクターアニメーションを変革しました。3Dモデルに命を吹き込むために、もはや数ヶ月の手作業は必要ありません。現在のシステムは、テキストや音声から動き、表情、リップシンクを生成します。これは、小規模スタジオや個人クリエイターにとってゲームチェンジャーとなります。
ニューラルネットワークによるワークフロー 🤖
現在のツールは、数千時間のモーションキャプチャデータで訓練されたニューラルネットワークを採用しています。プロセスはシンプルです。脚本や音声を入力すると、AIがベースとなるアニメーションを生成します。その後、強度やスタイルなどのパラメータを調整します。結果は、かつてキーフレーム作業に数週間を要した滑らかな動きです。CascadeurやBlender用プラグインなどのプログラムは、すでにこれらの機能を統合しています。
アニメーターがコーヒーを頼んだら、AIがダンスを披露した日 ☕
面白いのは、中立的なジェスチャーを依頼したのに、AIがキャラクターにTikTokの振り付けをさせるように解釈した時です。あるいは、普通に歩くと指示したのに、ロボットのような歩き方で返ってきた時です。フォーラムは、真面目なキャラクターが突然ムーンウォークをしているスクリーンショットで溢れています。少なくとも、バグの言い訳ができました。「AIのせいだ、自分の睡眠不足のせいじゃない」と。