【第2章】AIアバターに感情を宿す技術 ── emotion2vecを使わず、なぜLLM+プロシージャルを選んだのか
Zenn
Share
2026年03月21日AI(その他)

【第2章】AIアバターに感情を宿す技術 ── emotion2vecを使わず、なぜLLM+プロシージャルを選んだのか

要約・抽出情報

口が動くだけのアバターは、どれだけ精巧に作っても「人形」だ。 前回の記事で、音声からリアルタイムに口を動かすリップシンクAIを作った。精度0.89、75倍速。数字の上では成功だった。 だが、実際に動かしてみると、違和感が消えない。 口だけが機械的に動き、目は死んでいる。何を喋っても同じ顔。これは「喋る人形」であって、「生きたキャラクター」ではない。 人間が相手を「生きている」と感じるのは、口ではなく目だ。嬉しいときに目尻が下がる。怒ったときに眉間にしわが寄る。驚いたときにまぶたが大きく開く。無意識にそれを読み取っている。 口の動きは「何を喋っているか」を伝え、目の動きは「何を感じているか...

この記事をシェアする

Share

この記事の詳細はオリジナルサイトでご確認ください

オリジナルサイトで読む