Przewodnik konfiguracji
Ten przewodnik przeprowadzi Cię przez podstawowy proces konfiguracji Runtime MetaHuman Lip Sync dla twoich postaci MetaHuman.
Uwaga: Runtime MetaHuman Lip Sync działa zarówno z MetaHuman, jak i postaciami niestandardowymi. Aby uzyskać szczegółowe instrukcje dotyczące konfigurowania postaci niestandardowych, zobacz Przewodnik konfiguracji postaci niestandardowej.
Wymagania wstępne
Przed rozpoczęciem upewnij się, że:
-
Wymagania wtyczki MetaHuman:
- UE 5.5 i wcześniejsze: Włącz wtyczkę MetaHuman w swoim projekcie
- UE 5.6 i nowsze: Włącz wtyczkę MetaHuman Core Tech w swoim projekcie
Dodatkowe wtyczki MetaHumanW zależności od tego, jak tworzysz swoje postacie MetaHuman, możesz potrzebować dodatkowych wtyczek. Na przykład, jeśli zamierzasz stworzyć MetaHuman za pomocą nowego systemu MetaHuman Creator wprowadzonego w UE 5.6, będziesz także musiał włączyć wtyczkę MetaHuman Creator. Aby uzyskać więcej informacji o tym systemie, zobacz dokumentację MetaHuman Creator.
-
Masz co najmniej jedną postać MetaHuman pobraną i dostępną w swoim projekcie
-
Wtyczka Runtime MetaHuman Lip Sync jest zainstalowana
Wtyczka rozszerzenia modelu standardowego
Jeśli planujesz używać modelu standardowego, będziesz musiał zainstalować wtyczkę rozszerzenia:
- Pobierz Standard Lip Sync Extension plugin stąd tutaj
- Wypakuj folder z pobranego archiwum do folderu
Pluginstwojego projektu (utwórz ten folder, jeśli nie istnieje) - Upewnij się, że twój projekt jest skonfigurowany jako projekt C++ (nawet jeśli nie masz żadnego kodu C++)
- Przebuduj swój projekt
- To rozszerzenie jest wymagane tylko jeśli chcesz używać modelu standardowego. Jeśli potrzebujesz tylko modeli realistycznych, możesz pominąć ten krok.
- Aby uzyskać więcej informacji na temat ręcznego budowania wtyczek, zobacz samouczek Budowanie wtyczek
Dodatkowe wtyczki
- Jeśli planujesz używać przechwytywania dźwięku (np. wejścia mikrofonowego), zainstaluj wtyczkę Runtime Audio Importer.
- Jeśli planujesz używać funkcjonalności zamiany tekstu na mowę:
- Dla lokalnej TTS (model standardowy i model realistyczny z obsługą nastroju), zainstaluj wtyczkę Runtime Text To Speech.
- Dla zewnętrznych dostawców TTS (ElevenLabs, OpenAI, Google Cloud, Azure), zainstaluj wtyczkę Runtime AI Chatbot Integrator.
Konfiguracja Animation Blueprint
Krok 1: Znajdź i zmodyfikuj Blueprint animacji twarzy
- UE 5.5 i wcześniejsze (lub starsze MetaHumany w UE 5.6+)
- Postacie z MetaHuman Creator w UE 5.6+
Musisz zmodyfikować Animation Blueprint, który będzie używany do animacji twarzy twojej postaci MetaHuman. Domyślny Animation Blueprint twarzy MetaHuman znajduje się w lokalizacji:
Content/MetaHumans/Common/Face/Face_AnimBP

Masz kilka opcji implementacji funkcji synchronizacji ust:
- Edytuj domyślny zasób (Najprostsza opcja)
- Utwórz duplikat
- Użyj niestandardowego Animation Blueprint
Otwórz domyślny Face_AnimBP bezpośrednio i wprowadź swoje modyfikacje. Wszelkie zmiany wpłyną na wszystkie postacie MetaHuman używające tego Animation Blueprint.
Uwaga: To podejście jest wygodne, ale wpłynie na wszystkie postacie używające domyślnego Animation Blueprint.
- Zduplikuj
Face_AnimBPi nadaj mu opisową nazwę - Znajdź klasę Blueprint swojej postaci (np. dla postaci "Bryan" będzie to
Content/MetaHumans/Bryan/BP_Bryan) - Otwórz Blueprint postaci i znajdź komponent Face
- Zmień właściwość Anim Class na nowo zduplikowany Animation Blueprint
Uwaga: To podejście pozwala dostosować synchronizację ust dla konkretnych postaci, pozostawiając inne niezmienione.
Możesz zaimplementować mieszanie synchronizacji ust w dowolnym Animation Blueprint, który ma dostęp do wymaganych kości twarzy:
- Utwórz lub użyj istniejącego niestandardowego Animation Blueprint
- Upewnij się, że twój Animation Blueprint współpracuje ze szkieletem zawierającym te same kości twarzy co domyślny
Face_Archetype_SkeletonMetaHuman
Uwaga: To podejście daje maksymalną elastyczność integracji z niestandardowymi systemami animacji.
Począwszy od UE 5.6, wprowadzono nowy system MetaHuman Creator. Dla tych postaci wtyczka dostarcza Animation Blueprint twarzy znajdujący się w:
Content/LipSyncData/LipSync_Face_AnimBP
Ten Animation Blueprint znajduje się w folderze zawartości wtyczki i będzie nadpisany przy każdej aktualizacji wtyczki. Aby zapobiec utracie swoich dostosowań:
- Skopiuj ten zasób do folderu Content swojego projektu (na przykład do
YourProject/Content/MetaHumans/LipSync_Face_AnimBP) - Użyj swojej skopiowanej wersji w konfiguracji postaci
- Wprowadź wszystkie swoje modyfikacje w skopiowanej wersji
Używanie Face Animation Blueprint wtyczki:
- Znajdź klasę Blueprint swojej postaci z MetaHuman Creator
- Otwórz Blueprint postaci i znajdź komponent Face
- Zmień właściwość Anim Class na
LipSync_Face_AnimBPwtyczki - Kontynuuj kolejne kroki, aby skonfigurować funkcjonalność Runtime MetaHuman Lip Sync
Krok 2: Konfiguracja Event Graph
Otwórz swój Face Animation Blueprint i przełącz się na Event Graph. Będziesz musiał utworzyć generator, który przetworzy dane audio i wygeneruje animację synchronizacji ust.
- Model Standardowy
- Model Realistyczny
- Model Realistyczny z Nastrojem
- Dodaj węzeł
Event Blueprint Begin Play, jeśli jeszcze nie istnieje - Dodaj węzeł
Create Runtime Viseme Generatori połącz go z wydarzeniem Begin Play - Zapisz wynik jako zmienną (np. "VisemeGenerator") do użycia w innych częściach grafu

Aby uzyskać szczegółowe opcje konfiguracji, zobacz sekcję Konfiguracja Modelu Standardowego.
- Dodaj węzeł
Event Blueprint Begin Play, jeśli jeszcze nie istnieje - Dodaj węzeł
Create Realistic MetaHuman Lip Sync Generatori połącz go z wydarzeniem Begin Play - Zapisz wynik jako zmienną (np. "RealisticMetaHumanLipSyncGenerator") do użycia w innych częściach grafu
- (Opcjonalnie) Skonfiguruj ustawienia generatora za pomocą parametru Configuration

Aby uzyskać szczegółowe opcje konfiguracji, w tym typy modeli, ustawienia wydajności i parametry przetwarzania, zobacz sekcję Konfiguracja Modelu Realistycznego.
- Dodaj węzeł
Event Blueprint Begin Play, jeśli jeszcze nie istnieje - Dodaj węzeł
Create Realistic MetaHuman Lip Sync With Mood Generatori połącz go z wydarzeniem Begin Play - Zapisz wynik jako zmienną (np. "MoodMetaHumanLipSyncGenerator") do użycia w innych częściach grafu
- (Opcjonalnie) Skonfiguruj ustawienia generatora za pomocą parametru Configuration

Aby uzyskać szczegółową konfigurację nastroju, w tym typy nastrojów, ustawienia intensywności, czas wyprzedzenia i wybór typu wyjścia, zobacz sekcję Konfiguracja Modelu z Nastrojem.
Krok 3: Konfiguracja Anim Graph
Po skonfigurowaniu Event Graph, przełącz się na Anim Graph, aby połączyć generator z animacją postaci:
- Model Standardowy
- Model Realistyczny
- Model Realistyczny z Nastrojem
- Znajdź pozę zawierającą twarz MetaHuman (zwykle z
Use cached pose 'Body Pose') - Dodaj węzeł
Blend Runtime MetaHuman Lip Sync - Połącz pozę z
Source PosewęzłaBlend Runtime MetaHuman Lip Sync - Połącz swoją zmienną
VisemeGeneratorz pinemViseme Generator - Połącz wyjście węzła
Blend Runtime MetaHuman Lip Syncz pinemResultwęzłaOutput Pose

- Znajdź pozę zawierającą twarz MetaHuman (zwykle z
Use cached pose 'Body Pose') - Dodaj węzeł
Blend Realistic MetaHuman Lip Sync - Połącz pozę z
Source PosewęzłaBlend Realistic MetaHuman Lip Sync - Połącz swoją zmienną
RealisticMetaHumanLipSyncGeneratorz pinemLip Sync Generator - Połącz wyjście węzła
Blend Realistic MetaHuman Lip Syncz pinemResultwęzłaOutput Pose

- Znajdź pozę zawierającą twarz MetaHuman (zwykle z
Use cached pose 'Body Pose') - Dodaj węzeł
Blend Realistic MetaHuman Lip Sync(ten sam węzeł co w regularnym modelu realistycznym) - Połącz pozę z
Source PosewęzłaBlend Realistic MetaHuman Lip Sync - Połącz swoją zmienną
MoodMetaHumanLipSyncGeneratorz pinemLip Sync Generator - Połącz wyjście węzła
Blend Realistic MetaHuman Lip Syncz pinemResultwęzłaOutput Pose

Uwaga: Model z nastrojem używa tego samego węzła Animation Blueprint co regularny model realistyczny. Funkcjonalność nastroju jest obsługiwana wewnętrznie przez generator.
Następne kroki
Teraz, gdy podstawowa konfiguracja Animation Blueprint jest ukończona, musisz skonfigurować przetwarzanie wejścia audio, aby dostarczać dane audio do twojego generatora synchronizacji ust.
Przejdź do Przewodnika Przetwarzania Audio, aby dowiedzieć się, jak skonfigurować różne metody wprowadzania audio, w tym przechwytywanie mikrofonu, zamianę tekstu na mowę i przetwarzanie plików audio.
Aby uzyskać zaawansowane opcje konfiguracji i dostrajania, zobacz Przewodnik Konfiguracji.