Przejdź do głównej zawartości

Przewodnik konfiguracji

Ten przewodnik przeprowadzi Cię przez podstawowy proces konfiguracji Runtime MetaHuman Lip Sync z twoimi postaciami MetaHuman.

Uwaga: Runtime MetaHuman Lip Sync działa zarówno z MetaHuman, jak i niestandardowymi postaciami. Aby uzyskać szczegółowe instrukcje dotyczące konfigurowania niestandardowych postaci, zobacz Przewodnik konfiguracji niestandardowej postaci.

Wymagania wstępne

Przed rozpoczęciem upewnij się, że:

  1. Wtyczka MetaHuman jest włączona w twoim projekcie (Uwaga: Począwszy od UE 5.6, ten krok nie jest już wymagany, ponieważ funkcjonalność MetaHuman jest zintegrowana bezpośrednio z silnikiem)
  2. Masz co najmniej jedną postać MetaHuman pobraną i dostępną w twoim projekcie
  3. Wtyczka Runtime MetaHuman Lip Sync jest zainstalowana

Rozszerzenie modelu standardowego

Jeśli planujesz używać modelu standardowego, będziesz potrzebować zainstalować wtyczkę rozszerzającą:

  1. Pobierz wtyczkę Standard Lip Sync Extension z Google Drive
  2. Wypakuj folder z pobranego archiwum do folderu Plugins twojego projektu (utwórz ten folder, jeśli nie istnieje)
  3. Upewnij się, że twój projekt jest skonfigurowany jako projekt C++ (nawet jeśli nie masz żadnego kodu C++)
  4. Przebuduj swój projekt
notatka
  • To rozszerzenie jest wymagane tylko jeśli chcesz używać modelu standardowego. Jeśli potrzebujesz tylko modeli realistycznych, możesz pominąć ten krok.
  • Aby uzyskać więcej informacji na temat ręcznego budowania wtyczek, zobacz samouczek Budowanie wtyczek

Dodatkowe wtyczki

  • Jeśli planujesz używać przechwytywania dźwięku (np. wejście z mikrofonu), zainstaluj wtyczkę Runtime Audio Importer.
  • Jeśli planujesz używać funkcjonalności zamiany tekstu na mowę:

Konfiguracja Animation Blueprint

Krok 1: Zlokalizuj i zmodyfikuj Blueprint animacji twarzy

Musisz zmodyfikować Animation Blueprint, który będzie używany do animacji twarzy twojej postaci MetaHuman. Domyślny Animation Blueprint twarzy MetaHuman znajduje się w:

Content/MetaHumans/Common/Face/Face_AnimBP

Face Animation Blueprint

Masz kilka opcji implementacji funkcji synchronizacji ust:

Otwórz domyślny Face_AnimBP bezpośrednio i wprowadź swoje modyfikacje. Wszelkie zmiany wpłyną na wszystkie postacie MetaHuman używające tego Animation Blueprint.

Uwaga: To podejście jest wygodne, ale wpłynie na wszystkie postacie używające domyślnego Animation Blueprint.

Krok 2: Konfiguracja Event Graph

Otwórz swój Face Animation Blueprint i przejdź do Event Graph. Będziesz musiał utworzyć generator, który będzie przetwarzał dane audio i generował animację synchronizacji ust.

  1. Dodaj węzeł Event Blueprint Begin Play, jeśli jeszcze nie istnieje
  2. Dodaj węzeł Create Runtime Viseme Generator i połącz go z wydarzeniem Begin Play
  3. Zapisz wynik jako zmienną (np. "VisemeGenerator") do użycia w innych częściach grafu

Tworzenie Runtime Viseme Generator

Aby uzyskać szczegółowe opcje konfiguracji, zobacz sekcję Konfiguracja Standard Model.

Krok 3: Konfiguracja Anim Graph

Po skonfigurowaniu Event Graph, przełącz się na Anim Graph, aby podłączyć generator do animacji postaci:

  1. Znajdź pozę zawierającą twarz MetaHumana (zwykle z Use cached pose 'Body Pose')
  2. Dodaj węzeł Blend Runtime MetaHuman Lip Sync
  3. Podłącz pozę do Source Pose węzła Blend Runtime MetaHuman Lip Sync
  4. Podłącz swoją zmienną VisemeGenerator do pinu Viseme Generator
  5. Podłącz wyjście węzła Blend Runtime MetaHuman Lip Sync do pinu Result w Output Pose

Blend Runtime MetaHuman Lip Sync

Następne kroki

Teraz, gdy podstawowa konfiguracja Animation Blueprint jest kompletna, musisz skonfigurować przetwarzanie wejścia audio, aby dostarczać dane audio do twojego generatora synchronizacji ust.

Kontynuuj do Przewodnika przetwarzania audio, aby dowiedzieć się, jak skonfigurować różne metody wprowadzania audio, w tym przechwytywanie z mikrofonu, zamianę tekstu na mowę i przetwarzanie plików audio. Aby uzyskać zaawansowane opcje konfiguracji i dostrajanie, zobacz Przewodnik konfiguracji.