Przejdź do głównej zawartości

Przewodnik konfiguracji

Ten przewodnik przeprowadzi Cię przez podstawowy proces konfiguracji Runtime MetaHuman Lip Sync z twoimi postaciami MetaHuman.

Uwaga: Runtime MetaHuman Lip Sync działa zarówno z MetaHuman, jak i niestandardowymi postaciami. Aby uzyskać szczegółowe instrukcje dotyczące konfiguracji niestandardowych postaci, zobacz Przewodnik konfiguracji niestandardowych postaci.

Wymagania wstępne

Przed rozpoczęciem upewnij się, że:

  1. Wymagania wtyczki MetaHuman:

    • UE 5.5 i wcześniejsze: Włącz wtyczkę MetaHuman w swoim projekcie
    • UE 5.6 i późniejsze: Włącz wtyczkę MetaHuman Core Tech w swoim projekcie
    Dodatkowe wtyczki MetaHuman

    W zależności od tego, jak tworzysz swoje postacie MetaHuman, możesz potrzebować dodatkowych wtyczek. Na przykład, jeśli zamierzasz stworzyć MetaHuman za pomocą nowego systemu MetaHuman Creator wprowadzonego w UE 5.6, będziesz także musiał włączyć wtyczkę MetaHuman Creator. Aby uzyskać więcej informacji o tym systemie, zobacz dokumentację MetaHuman Creator.

  2. Masz co najmniej jedną postać MetaHuman pobraną i dostępną w swoim projekcie

  3. Wtyczka Runtime MetaHuman Lip Sync jest zainstalowana

Wtyczka rozszerzenia modelu standardowego

Jeśli planujesz używać modelu standardowego, będziesz potrzebować zainstalować wtyczkę rozszerzenia:

  1. Pobierz wtyczkę Standard Lip Sync Extension z Google Drive
  2. Wypakuj folder z pobranego archiwum do folderu Plugins twojego projektu (utwórz ten folder, jeśli nie istnieje)
  3. Upewnij się, że twój projekt jest skonfigurowany jako projekt C++ (nawet jeśli nie masz żadnego kodu C++)
  4. Przebuduj swój projekt
notatka
  • To rozszerzenie jest wymagane tylko jeśli chcesz używać modelu standardowego. Jeśli potrzebujesz tylko modeli realistycznych, możesz pominąć ten krok.
  • Aby uzyskać więcej informacji na temat ręcznego budowania wtyczek, zobacz samouczek Budowanie wtyczek

Dodatkowe wtyczki

  • Jeśli planujesz używać przechwytywania dźwięku (np. wejścia z mikrofonu), zainstaluj wtyczkę Runtime Audio Importer.
  • Jeśli planujesz używać funkcjonalności zamiany tekstu na mowę:

Konfiguracja Animation Blueprint

Krok 1: Znajdź i zmodyfikuj Blueprint animacji twarzy

Musisz zmodyfikować Animation Blueprint, który będzie używany do animacji twarzy twojej postaci MetaHuman. Domyślny Animation Blueprint twarzy MetaHuman znajduje się w lokalizacji:

Content/MetaHumans/Common/Face/Face_AnimBP

Blueprint animacji twarzy

Masz kilka opcji implementacji funkcji synchronizacji ust:

Otwórz bezpośrednio domyślny Face_AnimBP i wprowadź swoje modyfikacje. Wszelkie zmiany wpłyną na wszystkie postacie MetaHuman korzystające z tego Blueprint animacji.

Uwaga: To podejście jest wygodne, ale wpłynie na wszystkie postacie używające domyślnego Blueprint animacji.

Krok 2: Konfiguracja Event Graph

Otwórz swój Face Animation Blueprint i przejdź do Event Graph. Będziesz musiał utworzyć generator, który przetworzy dane audio i wygeneruje animację synchronizacji ust.

  1. Dodaj węzeł Event Blueprint Begin Play, jeśli jeszcze nie istnieje
  2. Dodaj węzeł Create Runtime Viseme Generator i połącz go ze zdarzeniem Begin Play
  3. Zapisz wynik jako zmienną (np. "VisemeGenerator") do użycia w innych częściach grafu

Tworzenie Runtime Viseme Generator

Aby uzyskać szczegółowe opcje konfiguracji, zobacz sekcję Konfiguracja Modelu Standardowego.

Krok 3: Konfiguracja Anim Graph

Po skonfigurowaniu Event Graph, przełącz się na Anim Graph, aby podłączyć generator do animacji postaci:

  1. Znajdź pozę zawierającą twarz MetaHuman (zwykle z Use cached pose 'Body Pose')
  2. Dodaj węzeł Blend Runtime MetaHuman Lip Sync
  3. Podłącz pozę do Source Pose węzła Blend Runtime MetaHuman Lip Sync
  4. Podłącz swoją zmienną VisemeGenerator do pinu Viseme Generator
  5. Podłącz wyjście węzła Blend Runtime MetaHuman Lip Sync do pinu Result w Output Pose

Blend Runtime MetaHuman Lip Sync

Następne kroki

Teraz, gdy podstawowa konfiguracja Animation Blueprint jest ukończona, musisz skonfigurować przetwarzanie wejścia audio, aby dostarczać dane audio do twojego generatora synchronizacji ust.

Kontynuuj do Przewodnika przetwarzania audio, aby dowiedzieć się, jak skonfigurować różne metody wprowadzania audio, w tym przechwytywanie z mikrofonu, zamianę tekstu na mowę i przetwarzanie plików audio. Aby uzyskać zaawansowane opcje konfiguracji i dostrajanie, zobacz Przewodnik konfiguracji.