【第3章】AIジェスチャー生成を3手法試して全部失敗した話 ── 推論4秒、肘880度回転、そしてプリセットに戻った
Zenn
Share
2026年03月21日AI(その他)

【第3章】AIジェスチャー生成を3手法試して全部失敗した話 ── 推論4秒、肘880度回転、そしてプリセットに戻った

要約・抽出情報

口が動く。表情も変わる。でも、棒立ちだ。 リップシンクAIと感情表情システムを作り、口は滑らかに動き、目は感情に応じて変化する。数字の上では成功だった。だが実際にアバターと会話してみると、体が微動だにしない。顔だけが動く不気味な人形だった。 この記事は、音声からジェスチャーを自動生成するためにDiffSHEG(拡散モデル)、GRU直接回帰、GestureLSM(Flow Matching)の3つを試して、全部ダメだった記録だ。そして最終的に「AIの使いどころが違った」と気づいた話を書く。 ! 対象読者: Stable Diffusionなど生成AIの基本概念を知っている人。VTuber/...

この記事をシェアする

Share

この記事の詳細はオリジナルサイトでご確認ください

オリジナルサイトで読む