メインコンテンツまでスキップ

セットアップガイド

このガイドでは、MetaHuman キャラクターを使用した Runtime MetaHuman Lip Sync の基本的なセットアップ手順を説明します。

注意: Runtime MetaHuman Lip Sync は MetaHumanカスタムキャラクター の両方で動作します。カスタムキャラクターの設定に関する詳細な手順については、カスタムキャラクター設定ガイド を参照してください。

前提条件

開始する前に、以下を確認してください:

  1. MetaHuman プラグインがプロジェクトで有効になっていること (注意: UE 5.6 以降では、MetaHuman 機能がエンジンに直接統合されているため、この手順は不要です)
  2. 少なくとも 1 つの MetaHuman キャラクターがダウンロードされ、プロジェクトで利用可能であること
  3. Runtime MetaHuman Lip Sync プラグインがインストールされていること

標準モデル拡張プラグイン

標準モデル を使用する予定がある場合は、拡張プラグインをインストールする必要があります:

  1. Google Drive から Standard Lip Sync Extension plugin をダウンロードします
  2. ダウンロードしたアーカイブからフォルダを抽出し、プロジェクトの Plugins フォルダに配置します (このフォルダが存在しない場合は作成してください)
  3. プロジェクトが C++ プロジェクト として設定されていることを確認します (C++ コードがなくても)
  4. プロジェクトをリビルドします
注記
  • この拡張は 標準モデル を使用したい場合にのみ必要です。リアリスティックモデル のみが必要な場合は、この手順をスキップできます。
  • プラグインを手動でビルドする方法の詳細については、プラグインビルドチュートリアル を参照してください

追加プラグイン

  • オーディオキャプチャ (例: マイク入力) を使用する予定がある場合は、Runtime Audio Importer プラグインをインストールしてください。
  • テキスト読み上げ 機能を使用する予定がある場合:
    • ローカル TTS (標準モデルのみ) の場合は、Runtime Text To Speech プラグインをインストールしてください。
    • 外部 TTS プロバイダー (ElevenLabs, OpenAI) の場合は、Runtime AI Chatbot Integrator プラグインをインストールしてください。

アニメーションブループリントの設定

ステップ 1: 顔アニメーションのブループリントを特定して変更する

MetaHuman キャラクターの顔アニメーションに使用されるアニメーションブループリントを変更する必要があります。デフォルトの MetaHuman 顔アニメーションブループリントは以下の場所にあります:

Content/MetaHumans/Common/Face/Face_AnimBP

Face Animation Blueprint

Lip Sync機能を実装するにはいくつかの選択肢があります:

デフォルトのFace_AnimBPを直接開き、変更を加えます。変更はこのAnimation Blueprintを使用するすべてのMetaHumanキャラクターに影響します。

注意: このアプローチは便利ですが、デフォルトのAnimation Blueprintを使用するすべてのキャラクターに影響を与えます。

ステップ 2: イベントグラフの設定

Face Animation Blueprint を開き、Event Graph に切り替えます。オーディオデータを処理してリップシンクアニメーションを生成するジェネレーターを作成する必要があります。

  1. まだ存在しない場合は Event Blueprint Begin Play ノードを追加します
  2. Create Runtime Viseme Generator ノードを追加し、Begin Play イベントに接続します
  3. 出力を変数(例: "VisemeGenerator")として保存し、グラフの他の部分で使用できるようにします

Creating Runtime Viseme Generator

詳細な設定オプションについては、Standard Model Configuration セクションを参照してください。

ステップ 3: Anim Graph のセットアップ

Event Graph の設定後、Anim Graph に切り替えて、ジェネレーターをキャラクターのアニメーションに接続します:

  1. MetaHuman の顔を含むポーズを探します(通常は Use cached pose 'Body Pose' から)
  2. Blend Runtime MetaHuman Lip Sync ノードを追加します
  3. ポーズを Blend Runtime MetaHuman Lip Sync ノードの Source Pose に接続します
  4. あなたの VisemeGenerator 変数を Viseme Generator ピンに接続します
  5. Blend Runtime MetaHuman Lip Sync ノードの出力を Output PoseResult ピンに接続します

Blend Runtime MetaHuman Lip Sync

次のステップ

基本的な Animation Blueprint のセットアップが完了したので、音声データをリップシンクジェネレーターに供給するためのオーディオ入力処理を設定する必要があります。

マイクキャプチャ、テキスト読み上げ、オーディオファイル処理など、さまざまなオーディオ入力方法を設定する方法については、Audio Processing Guide に進んでください。 高度な設定オプションと微調整については、設定ガイドを参照してください。