最終更新日:2025年7月28日
<aside> 💡 これまでもNoLangでは、Live2Dのキャラクターの表情・モーションをカスタマイズすることができました。しかしあくまで、指定されたものの中からランダムに選択がなされるだけでした。
NoLang 4.0では新たに、発話内容に沿った表情・モーションが自動選択される機構が追加されています。アバター設定を適切に行うことで、動画のクオリティが格段に上がりますので、是非チャレンジしてみてください!
</aside>
<aside> 💡 本仕様は前バージョンと互換性を持っており、v1.0で作成したアバターもそのままご利用いただけますが、「表情・モーションをセリフに合わせて選択させる」ためには、v2.0への対応が必要になります。
参考:
</aside>
NoLangでは、「感情」や「ジェスチャー」のタグを用意しています。
Live2Dには、表情(Expression)や動き(Motion)があらかじめ設定されているものがあります。
そのようなLive2Dであれば、あなたがExpression, MotionをNoLangの「感情」「ジェスチャー」のタグと対応づけることで、NoLangがセリフから「感情」や「ジェスチャー」を連想した時に、対応するExpression, Motionが呼び出されるようになっています。

<aside> 💡
【重要】NoLangで用意されている「感情」「ジェスチャー」のタグ:
Live2Dファイルが入ったフォルダから、拡張子が.model3.json のファイルを探し出し、開きます。
拡張子が.exp3.json のファイルで記述されたExpressions(表情・装着品・エフェクトなど)を、動画再生中常に適用することができます。
"FileReferences" →"Expressions" を必要に応じて作成し、そこに以下のようにあるExpressionの"Name" に"NOLANG_P_<任意名>" を記述してください。
"Expressions": [
{
"Name": "NOLANG_P_<任意名>",
"File": "<PATH to .exp3.json>"
},
...
],
NoLangでは、「"Name" が"NoLang_P" で始まる、ある一つのExpression」を動画再生中、最初から最後まで適用します。