Konfiguracja Wtyczki
Konfiguracja Modelu
Standardowa Konfiguracja Modelu
Węzeł Create Runtime Viseme Generator
używa domyślnych ustawień, które sprawdzają się dobrze w większości scenariuszy. Konfiguracja jest obsługiwana poprzez właściwości węzła mieszania Animation Blueprint.
Aby poznać opcje konfiguracji Animation Blueprint, zobacz sekcję Konfiguracja Synchronizacji Warg poniżej.
Konfiguracja Realistycznego Modelu
Węzeł Create Realistic MetaHuman Lip Sync Generator
akceptuje opcjonalny parametr Configuration, który pozwala dostosować zachowanie generatora:
Typ Modelu
Ustawienie Model Type określa, której wersji realistycznego modelu użyć:
Typ Modelu | Wydajność | Jakość Wizualna | Obsługa Szumu | Zalecane Zastosowania |
---|---|---|---|---|
Wysoko Zoptymalizowany (Domyślny) | Najwyższa wydajność, najniższe użycie CPU | Dobra jakość | Może wykazywać zauważalne ruchy ust przy szumie tła lub dźwiękach innych niż głos | Czyste środowiska audio, scenariusze krytyczne pod względem wydajności |
Częściowo Zoptymalizowany | Dobra wydajność, umiarkowane użycie CPU | Wysoka jakość | Lepsza stabilność z zaszumionym dźwiękiem | Zrównoważona wydajność i jakość, mieszane warunki audio |
Oryginalny | Nadaje się do użycia w czasie rzeczywistym na nowoczesnych procesorach | Najwyższa jakość | Najbardziej stabilny z szumem tła i dźwiękami innymi niż głos | Wysokiej jakości produkcje, zaszumione środowiska audio, gdy potrzebna jest maksymalna dokładność |
Ustawienia Wydajności
Intra Op Threads: Kontroluje liczbę wątków używanych do wewnętrznych operacji przetwarzania modelu.
- 0 (Domyślne/Automatyczne): Używa automatycznego wykrywania (zazwyczaj 1/4 dostępnych rdzeni CPU, maksymalnie 4)
- 1-16: Ręczne określenie liczby wątków. Wyższe wartości mogą poprawić wydajność na systemach wielordzeniowych, ale zużywają więcej CPU
Inter Op Threads: Kontroluje liczbę wątków używanych do równoległego wykonywania różnych operacji modelu.
- 0 (Domyślne/Automatyczne): Używa automatycznego wykrywania (zazwyczaj 1/8 dostępnych rdzeni CPU, maksymalnie 2)
- 1-8: Ręczne określenie liczby wątków. Zwykle utrzymywane na niskim poziomie dla przetwarzania w czasie rzeczywistym
Rozmiar Porcji Przetwarzania
Processing Chunk Size określa, ile próbek jest przetwarzanych w każdym kroku wnioskowania. Wartość domyślna to 160 próbek (10ms audio przy 16kHz):
- Mniejsze wartości zapewniają częstsze aktualizacje, ale zwiększają użycie CPU
- Większe wartości zmniejszają obciążenie CPU, ale mogą zmniejszyć responsywność synchronizacji warg
- Zaleca się używanie wielokrotności 160 dla optymalnego wyrównania
Konfiguracja Modelu z Nastrojem
Węzeł Create Realistic MetaHuman Lip Sync With Mood Generator
zapewnia dodatkowe opcje konfiguracji wykraczające poza podstawowy model realistyczny:
Podstawowa Konfiguracja
Lookahead Ms: Czas wyprzedzenia w milisekundach dla poprawionej dokładności synchronizacji ust.
- Domyślne: 80ms
- Zakres: 20ms do 200ms (musi być podzielne przez 20)
- Wyższe wartości zapewniają lepszą synchronizację, ale zwiększają opóźnienie
Typ Wyjścia: Kontroluje, które sterowania mimiką twarzy są generowane.
- Pełna Twarz: Wszystkie 81 sterowań mimiką (brwi, oczy, nos, usta, szczęka, język)
- Tylko Usta: Tylko sterowania związane z ustami, szczęką i językiem
Ustawienia Wydajności: Używa tych samych ustawień Intra Op Threads i Inter Op Threads co zwykły model realistyczny.
Ustawienia Nastroju
Dostępne Nastroje:
- Neutralny, Szczęśliwy, Smutny, Odraza, Gniew, Zaskoczenie, Strach
- Pewny siebie, Podekscytowany, Znudzony, Zabawowy, Zdezorientowany
Intensywność Nastroju: Kontroluje, jak mocno nastrój wpływa na animację (0.0 do 1.0)
Kontrola Nastroju w Czasie Rzeczywistym
Możesz dostosować ustawienia nastroju podczas działania programu używając następujących funkcji:
- Ustaw Nastrój: Zmień aktualny typ nastroju
- Ustaw Intensywność Nastroju: Dostosuj, jak mocno nastrój wpływa na animację (0.0 do 1.0)
- Ustaw Lookahead Ms: Zmodyfikuj czas wyprzedzenia dla synchronizacji
- Ustaw Typ Wyjścia: Przełącz między sterowaniem Pełnej Twarzy i Tylko Ust
Przewodnik Wyboru Nastroju
Wybierz odpowiednie nastroje na podstawie swojej treści:
Nastrój | Najlepsze Zastosowanie | Typowy Zakres Intensywności |
---|---|---|
Neutralny | Ogólna rozmowa, narracja, stan domyślny | 0.5 - 1.0 |
Szczęśliwy | Pozytywna treść, radosny dialog, świętowanie | 0.6 - 1.0 |
Smutny | Melancholijna treść, emocjonalne sceny, ponure momenty | 0.5 - 0.9 |
Odraza | Negatywne reakcje, treść wywołująca niesmak, odrzucenie | 0.4 - 0.8 |
Gniew | Agresywny dialog, konfrontacyjne sceny, frustracja | 0.6 - 1.0 |
Zaskoczenie | Nieoczekiwane wydarzenia, objawienia, reakcje szoku | 0.7 - 1.0 |
Strach | Groźne sytuacje, niepokój, nerwowy dialog | 0.5 - 0.9 |
Pewny siebie | Prezentacje zawodowe, dialog przywódczy, asertywna mowa | 0.7 - 1.0 |
Podekscytowany | Energetyczna treść, ogłoszenia, entuzjastyczny dialog | 0.8 - 1.0 |
Znudzony | Monotonna treść, niezainteresowany dialog, zmęczona mowa | 0.3 - 0.7 |
Zabawowy | Swobodna rozmowa, humor, lekkie interakcje | 0.6 - 0.9 |
Zdezorientowany | Dialog z wieloma pytaniami, niepewność, zdumienie | 0.4 - 0.8 |
Konfiguracja Schematu Animacji
Konfiguracja Synchronizacji Ust
- Standard Model
- Realistic Models
Węzeł Blend Runtime MetaHuman Lip Sync
posiada opcje konfiguracji w panelu właściwości:
Właściwość | Domyślnie | Opis |
---|---|---|
Prędkość Interpolacji | 25 | Kontroluje, jak szybko ruchy ust przechodzą między wizemami. Wyższe wartości skutkują szybszymi i bardziej nagłymi przejściami. |
Czas Resetowania | 0.2 | Czas w sekundach, po którym synchronizacja ust jest resetowana. Jest to przydatne, aby zapobiec kontynuacji synchronizacji ust po zatrzymaniu dźwięku. |
Węzeł Blend Realistic MetaHuman Lip Sync
posiada opcje konfiguracji w panelu właściwości:
Właściwość | Domyślnie | Opis |
---|---|---|
Prędkość Interpolacji | 30 | Kontroluje, jak szybko mimika twarzy przechodzi podczas aktywnej mowy. Wyższe wartości skutkują szybszymi i bardziej nagłymi przejściami. |
Prędkość Interpolacji w Stanie Spoczynku | 15 | Kontroluje, jak szybko mimika twarzy powraca do stanu spoczynku/neutralnego. Niższe wartości tworzą gładsze, bardziej stopniowe powroty do pozycji spoczynkowej. |
Czas Resetowania | 0.2 | Czas w sekundach, po którym synchronizacja ust resetuje się do stanu spoczynku. Przydatne, aby zapobiec kontynuacji wyrażeń po zatrzymaniu dźwięku. |
Zachowaj Stan Spoczynku | false | Po włączeniu, zachowuje ostatni stan emocjonalny podczas okresów bezczynności zamiast resetować do neutralnego. |
Zachowaj Wyrażenia Oczu | true | Kontroluje, czy powiązane z oczami kontrolery twarzy są zachowywane podczas stanu spoczynku. Skuteczne tylko wtedy, gdy Zachowaj Stan Spoczynku jest włączone. |
Zachowaj Wyrazenia Brwi | true | Kontroluje, czy powiązane z brwiami kontrolery twarzy są zachowywane podczas stanu spoczynku. Skuteczne tylko wtedy, gdy Zachowaj Stan Spoczynku jest włączone. |
Zachowaj Kształt Ust | false | Kontroluje, czy kontrolery kształtu ust (z wyłączeniem ruchów specyficznych dla mowy, takich jak język i szczęka) są zachowywane podczas stanu spoczynku. Skuteczne tylko wtedy, gdy Zachowaj Stan Spoczynku jest włączone. |
Zachowanie Stanu Spoczynku
Funkcja Zachowaj Stan Spoczynku rozwiązuje kwestię, w jaki sposób model Realistyczny obsługuje okresy ciszy. W przeciwieństwie do modelu Standardowego, który używa dyskretnych wizemów i konsekwentnie powraca do wartości zerowych podczas ciszy, sieć neuronowa modelu Realistycznego może utrzymywać subtelne pozycjonowanie twarzy, które różni się od domyślnej pozycji spoczynkowej MetaHuman.
Kiedy Włączyć:
- Utrzymywanie wyrażeń emocjonalnych między segmentami mowy
- Zachowywanie cech osobowości postaci
- Zapewnienie ciągłości wizualnej w sekwencjach filmowych
Opcje Kontroli Regionalnej:
- Wyrażenia Oczu: Zachowuje mrużenie, rozszerzanie oczu i pozycjonowanie powiek
- Wyrażenia Brwi: Utrzymuje pozycjonowanie brwi i czoła
- Kształt Ust: Zachowuje ogólne zakrzywienie ust, jednocześnie pozwalając ruchom mowy (język, szczęka) na zresetowanie
Animacja Śmiechu
Możesz również dodać animacje śmiechu, które będą dynamicznie reagować na śmiech wykryty w audio:
- Dodaj węzeł
Blend Runtime MetaHuman Laughter
- Podłącz swoją zmienną
RuntimeVisemeGenerator
do pinuViseme Generator
- Jeśli już używasz synchronizacji ust:
- Podłącz wyjście z węzła
Blend Runtime MetaHuman Lip Sync
doSource Pose
węzłaBlend Runtime MetaHuman Laughter
- Podłącz wyjście węzła
Blend Runtime MetaHuman Laughter
do pinuResult
wOutput Pose
- Podłącz wyjście z węzła
- Jeśli używasz tylko śmiechu bez synchronizacji ust:
- Podłącz swoją pozę źródłową bezpośrednio do
Source Pose
węzłaBlend Runtime MetaHuman Laughter
- Podłącz wyjście do pinu
Result
- Podłącz swoją pozę źródłową bezpośrednio do
Gdy śmiech zostanie wykryty w audio, twoja postać będzie dynamicznie animowana odpowiednio:
Konfiguracja Śmiechu
Węzeł Blend Runtime MetaHuman Laughter
ma własne opcje konfiguracji:
Właściwość | Domyślnie | Opis |
---|---|---|
Interpolation Speed | 25 | Kontroluje, jak szybko ruchy ust przechodzą między animacjami śmiechu. Wyższe wartości skutkują szybszymi, bardziej nagłymi przejściami. |
Reset Time | 0.2 | Czas w sekundach, po którym śmiech jest resetowany. Jest to przydatne, aby zapobiec kontynuowaniu śmiechu po zatrzymaniu audio. |
Max Laughter Weight | 0.7 | Skaluje maksymalne natężenie animacji śmiechu (0.0 - 1.0). |
Uwaga: Wykrywanie śmiechu jest obecnie dostępne tylko w Modelu Standardowym.
Łączenie z Istniejącymi Animacjami
Aby zastosować synchronizację ust i śmiech wraz z istniejącymi animacjami ciała i niestandardowymi animacjami twarzy bez ich nadpisywania:
- Dodaj węzeł
Layered blend per bone
między swoimi animacjami ciała a końcowym wyjściem. Upewnij się, żeUse Attached Parent
jest ustawione na true. - Skonfiguruj ustawienia warstw:
- Dodaj 1 element do tablicy
Layer Setup
- Dodaj 3 elementy do
Branch Filters
dla warstwy, z następującymiBone Name
:FACIAL_C_FacialRoot
FACIAL_C_Neck2Root
FACIAL_C_Neck1Root
- Dodaj 1 element do tablicy
- Ważne dla niestandardowych animacji twarzy: W
Curve Blend Option
wybierz "Use Max Value". Pozwala to na prawidłowe nałożenie niestandardowych animacji twarzy (wyrażeń, emocji itp.) na synchronizację ust. - Wykonaj połączenia:
- Istniejące animacje (takie jak
BodyPose
) → wejścieBase Pose
- Wyjście animacji twarzy (z węzłów synchronizacji ust i/lub śmiechu) → wejście
Blend Poses 0
- Węzeł warstwowy → końcowa poza
Result
- Istniejące animacje (takie jak
Dostrajanie Zachowania Synchronizacji Ust
Kontrola Wysuwania Języka
W standardowym modelu synchronizacji ust, możesz zauważyć nadmierne wysuwanie języka do przodu podczas niektórych fonemów. Aby kontrolować wysuwanie języka:
- Po węźle mieszania synchronizacji ust dodaj węzeł
Modify Curve
- Kliknij prawym przyciskiem myszy na węźle
Modify Curve
i wybierz Add Curve Pin - Dodaj pin krzywej o nazwie
CTRL_expressions_tongueOut
- Ustaw właściwość Apply Mode węzła na Scale
- Dostosuj parametr Value, aby kontrolować wysuwanie języka (np. 0.8, aby zmniejszyć wysunięcie o 20%)
Kontrola Otwierania Szczęki
Realistyczna synchronizacja ust może powodować zbyt intensywne ruchy szczęki, w zależności od treści audio i wymagań wizualnych. Aby dostosować intensywność otwierania szczęki:
- Po węźle mieszania synchronizacji ust dodaj węzeł
Modify Curve
- Kliknij prawym przyciskiem myszy na węźle
Modify Curve
i wybierz Add Curve Pin - Dodaj pin krzywej o nazwie
CTRL_expressions_jawOpen
- Ustaw właściwość Apply Mode węzła na Scale
- Dostosuj parametr Value, aby kontrolować zakres otwierania szczęki (np. 0.9, aby zmniejszyć ruch szczęki o 10%)
Dostrajanie Specyficzne dla Nastroju
Dla modeli z obsługą nastrojów, możesz precyzyjnie dostroić określone wyrazy emocjonalne:
Kontrola Brwi:
CTRL_expressions_browRaiseInL
/CTRL_expressions_browRaiseInR
- Podnoszenie wewnętrznej części brwiCTRL_expressions_browRaiseOuterL
/CTRL_expressions_browRaiseOuterR
- Podnoszenie zewnętrznej części brwiCTRL_expressions_browDownL
/CTRL_expressions_browDownR
- Opuszczanie brwi
Kontrola Wyrazu Oczu:
CTRL_expressions_eyeSquintInnerL
/CTRL_expressions_eyeSquintInnerR
- Mrużenie oczuCTRL_expressions_eyeCheekRaiseL
/CTRL_expressions_eyeCheekRaiseR
- Podnoszenie policzków
Porównanie i Wybór Modelu
Wybór Pomiędzy Modelami
Decydując, którego modelu synchronizacji ust użyć w swoim projekcie, weź pod uwagę następujące czynniki:
Kryterium | Model Standardowy | Model Realistyczny | Model Realistyczny z Nastrojem |
---|---|---|---|
Kompatybilność z Postaciami | MetaHumans i wszystkie typy postaci niestandardowych | Tylko MetaHumans | Tylko MetaHumans |
Jakość Wizualna | Dobra synchronizacja ust z wydajną pracą | Zwiększony realizm z bardziej naturalnymi ruchami ust | Zwiększony realizm z wyrażeniami emocjonalnymi |
Wydajność | Zoptymalizowany dla wszystkich platform, w tym mobilnych/VR | Wyższe wymagania zasobowe | Wyższe wymagania zasobowe |
Funkcje | 14 wizemów, wykrywanie śmiechu | 81 kontrolek twarzy, 3 poziomy optymalizacji | 81 kontrolek twarzy, 12 nastrojów, konfigurowalne wyjście |
Obsługa Platform | Windows, Android, Quest | Windows, Mac, iOS, Linux | Windows, Mac, iOS, Linux |
Przypadki Użycia | Aplikacje ogólne, gry, VR/AR, mobilne | Doświadczenia filmowe, interakcje z bliska | Opowiadanie emocjonalne, zaawansowana interakcja z postaciami |
Kompatybilność z Wersją Silnika
Jeśli używasz Unreal Engine 5.2, realistyczne modele mogą nie działać poprawnie z powodu błędu w bibliotece próbkowania UE. Dla użytkowników UE 5.2, którzy potrzebują niezawodnej funkcji synchronizacji warg, proszę używać Modelu Standardowego zamiast.
Ten problem dotyczy wyłącznie UE 5.2 i nie wpływa na inne wersje silnika.
Zalecenia dotyczące wydajności
- Dla większości projektów Model Standardowy zapewnia doskonałą równowagę między jakością a wydajnością
- Używaj Modelu Realistycznego, gdy potrzebujesz najwyższej wierności wizualnej dla postaci MetaHuman
- Używaj Modelu Realistycznego z Nastrojem, gdy kontrola ekspresji emocjonalnej jest ważna dla twojej aplikacji
- Rozważ możliwości wydajnościowe platformy docelowej przy wyborze między modelami
- Testuj różne poziomy optymalizacji, aby znaleźć najlepszą równowagę dla swojego konkretnego przypadku użycia
Zgodność z TTS
Typ Modelu | Wsparcie Lokalnego TTS (poprzez Runtime Text To Speech) | Wsparcie Zewnętrznego TTS | Uwagi |
---|---|---|---|
Model Standardowy | ✅ Pełne wsparcie | ✅ Pełne wsparcie | Zgodny ze wszystkimi opcjami TTS |
Model Realistyczny | ❌ Ograniczone wsparcie | ✅ Pełne wsparcie | Konflikty środowiska wykonawczego ONNX z lokalnym TTS |
Model Realistyczny z Nastrojem | ✅ Pełne wsparcie | ✅ Pełne wsparcie | Zgodny ze wszystkimi opcjami TTS |
Rozwiązywanie problemów
Częste problemy
Ponowne tworzenie generatora dla modeli realistycznych: Dla niezawodnej i spójnej pracy z modelami realistycznymi, zaleca się ponowne tworzenie generatora za każdym razem, gdy chcesz przekazać nowe dane audio po okresie bezczynności. Jest to spowodowane zachowaniem środowiska wykonawczego ONNX, które może powodować zatrzymanie działania synchronizacji warg przy ponownym użyciu generatorów po okresach ciszy.
Zgodność z lokalnym TTS: Lokalny TTS dostarczany przez wtyczkę Runtime Text To Speech nie jest obecnie obsługiwany z regularnym modelem realistycznym z powodu konfliktów środowiska wykonawczego ONNX. Jednak jest w pełni kompatybilny zarówno z modelem standardowym, jak i modelem realistycznym z nastrojem. Używaj zewnętrznych usług TTS, jeśli szczególnie potrzebujesz regularnego modelu realistycznego z funkcjonalnością TTS.
Obniżona responsywność synchronizacji warg: Jeśli doświadczasz, że synchronizacja warg staje się mniej responsywna z czasem podczas używania Streaming Sound Wave lub Capturable Sound Wave, może to być spowodowane akumulacją pamięci. Domyślnie, pamięć jest realokowana za każdym razem, gdy nowe audio jest dołączane. Aby zapobiec temu problemowi, wywołuj funkcję ReleaseMemory okresowo, aby zwolnić zgromadzoną pamięć, na przykład co około 30 sekund.
Optymalizacja wydajności:
- Dostosuj rozmiar porcji przetwarzania dla modeli realistycznych na podstawie twoich wymagań wydajnościowych
- Używaj odpowiedniej liczby wątków dla twojego docelowego sprzętu
- Rozważ użycie typu wyjścia Mouth Only dla modeli z nastrojem, gdy pełna animacja twarzy nie jest potrzebna