メインコンテンツまでスキップ

セットアップガイド

このガイドでは、Runtime MetaHuman Lip Sync を MetaHuman キャラクターと共に使用するための基本的なセットアップ手順を説明します。

注意: Runtime MetaHuman Lip Sync は MetaHumanカスタムキャラクター の両方で動作します。カスタムキャラクターの設定に関する詳細な手順については、カスタムキャラクター設定ガイド を参照してください。

前提条件

開始する前に、以下を確認してください:

  1. MetaHuman プラグインの要件:

    • UE 5.5 以前: プロジェクトで MetaHuman プラグインを有効にする
    • UE 5.6 以降: プロジェクトで MetaHuman Core Tech プラグインを有効にする
    追加の MetaHuman プラグイン

    MetaHuman キャラクターの作成方法によっては、追加のプラグインが必要になる場合があります。例えば、UE 5.6 で導入された新しい MetaHuman Creator システムで MetaHuman を作成する場合は、MetaHuman Creator プラグインも有効にする必要があります。このシステムに関する詳細は、MetaHuman Creator ドキュメント を参照してください。

  2. 少なくとも 1 つの MetaHuman キャラクターがダウンロードされ、プロジェクト内で利用可能であること

  3. Runtime MetaHuman Lip Sync プラグインがインストールされていること

標準モデル拡張プラグイン

標準モデル を使用する予定がある場合は、拡張プラグインをインストールする必要があります:

  1. 標準リップシンク拡張プラグインGoogle Drive からダウンロードする
  2. ダウンロードしたアーカイブからフォルダを抽出し、プロジェクトの Plugins フォルダに配置する (このフォルダが存在しない場合は作成する)
  3. プロジェクトが C++ プロジェクト として設定されていることを確認する (C++ コードがなくても)
  4. プロジェクトをリビルドする
注記
  • この拡張は 標準モデル を使用したい場合にのみ必要です。リアリスティックモデル のみが必要な場合は、この手順をスキップできます。
  • プラグインを手動でビルドする方法の詳細については、プラグインビルドチュートリアル を参照してください

追加プラグイン

  • オーディオキャプチャ (例: マイク入力) を使用する予定がある場合は、Runtime Audio Importer プラグインをインストールしてください。
  • テキスト読み上げ 機能を使用する予定がある場合:
    • ローカル TTS (標準モデルおよびムード対応リアリスティックモデル) の場合は、Runtime Text To Speech プラグインをインストールしてください。
    • 外部 TTS プロバイダー (ElevenLabs, OpenAI, Google Cloud, Azure) の場合は、Runtime AI Chatbot Integrator プラグインをインストールしてください。

アニメーションブループリントの設定

ステップ 1: フェイスアニメーション Blueprint を探して修正する

MetaHuman キャラクターのフェイシャルアニメーションに使用される Animation Blueprint を修正する必要があります。デフォルトの MetaHuman フェイス Animation Blueprint は次の場所にあります:

Content/MetaHumans/Common/Face/Face_AnimBP

フェースアニメーションブループリント

リップシンク機能を実装するにはいくつかのオプションがあります:

デフォルトの Face_AnimBP を直接開き、変更を加えます。変更はこのアニメーションブループリントを使用するすべてのMetaHumanキャラクターに影響します。

注意: このアプローチは便利ですが、デフォルトのアニメーションブループリントを使用するすべてのキャラクターに影響を与えます。

ステップ 2: イベントグラフの設定

Face Animation Blueprint を開き、Event Graph に切り替えます。オーディオデータを処理してリップシンクアニメーションを生成するジェネレーターを作成する必要があります。

  1. まだ存在しない場合は Event Blueprint Begin Play ノードを追加します
  2. Create Runtime Viseme Generator ノードを追加し、Begin Play イベントに接続します
  3. 出力を変数(例: "VisemeGenerator")として保存し、グラフの他の部分で使用します

Runtime Viseme Generator の作成

詳細な設定オプションについては、標準モデル設定セクションを参照してください。

ステップ 3: アニメグラフの設定

イベントグラフの設定後、Anim Graph に切り替えて、ジェネレーターをキャラクターのアニメーションに接続します:

  1. MetaHuman の顔を含むポーズを見つけます(通常は Use cached pose 'Body Pose' から)
  2. Blend Runtime MetaHuman Lip Sync ノードを追加します
  3. ポーズを Blend Runtime MetaHuman Lip Sync ノードの Source Pose に接続します
  4. あなたの VisemeGenerator 変数を Viseme Generator ピンに接続します
  5. Blend Runtime MetaHuman Lip Sync ノードの出力を Output PoseResult ピンに接続します

Blend Runtime MetaHuman Lip Sync

次のステップ

基本的な Animation Blueprint の設定が完了したので、リップシンクジェネレーターにオーディオデータを供給するためのオーディオ入力処理を設定する必要があります。

マイクキャプチャ、テキスト読み上げ、オーディオファイル処理など、さまざまなオーディオ入力方法を設定する方法については、オーディオ処理ガイドに進んでください。 高度な設定オプションと微調整については、設定ガイドを参照してください。