Przegląd
Runtime MetaHuman Lip Sync to wtyczka umożliwiająca synchronizację ust w czasie rzeczywistym, offline i międzyplatformową dla zarówno MetaHuman, jak i niestandardowych postaci. Pozwala animować usta postaci w odpowiedzi na wejście audio z różnych źródeł, w tym:
- Wejście z mikrofonu poprzez przechwytywalną falę dźwiękową Runtime Audio Importer's
- Syntezowaną mowę z Runtime Text To Speech lub Runtime AI Chatbot Integrator
- Dowolne dane audio w formacie float PCM (tablica próbek zmiennoprzecinkowych)
Wtyczka wewnętrznie generuje wizemy (wizualne reprezentacje fonemów) na podstawie wejścia audio. Ponieważ działa bezpośrednio z danymi audio, a nie z tekstem, wtyczka obsługuje wielojęzyczne wejście, w tym, ale nie ograniczając się do: angielskiego, hiszpańskiego, francuskiego, niemieckiego, japońskiego, chińskiego, koreańskiego, rosyjskiego, włoskiego, portugalskiego, arabskiego i hindi. Dosłownie każdy język jest obsługiwany, ponieważ synchronizacja ust jest generowana z fonemów audio, a nie z przetwarzania tekstu specyficznego dla języka.
Model Standardowy produkuje 14 wizemów i wykonuje animację synchronizacji ust przy użyciu predefiniowanego zasobu pozy. Natomiast Model Realistyczny (wyłącznie dla postaci MetaHuman) generuje 250 zmian morph targetów bez polegania na predefiniowanym zasobie pozy, co skutkuje znacznie bardziej realistycznymi animacjami twarzy.
Kompatybilność z Postaciami
Pomimo swojej nazwy, Runtime MetaHuman Lip Sync działa z szerokim zakresem postaci poza samymi MetaHumanami:
Popularne Komercyjne Systemy Postaci
- Postacie Daz Genesis 8/9
- Postacie Reallusion Character Creator 3/4 (CC3/CC4)
- Postacie Mixamo
- Awatary ReadyPlayerMe
Obsługa Standardów Animacji
- Systemy blendshape oparte na FACS
- Standard blendshape Apple ARKit
- Zestawy fonemów Preston Blair
- Systemy fonemów 3ds Max
- Dowolna postać z niestandardowymi morph targetami dla wyrazów twarzy
Aby uzyskać szczegółowe instrukcje dotyczące używania wtyczki z postaciami innymi niż MetaHuman, zobacz Przewodnik konfiguracji niestandardowych postaci.
Podgląd Animacji
Sprawdź te krótkie animacje, aby zobaczyć jakość animacji synchronizacji ust produkowanej przez wtyczkę w różnych typach postaci i modelach:




Kluczowe funkcje
- Synchronizacja ust w czasie rzeczywistym z wejścia mikrofonowego
- Obsługa przetwarzania audio offline
- Kompatybilność wieloplatformowa: Windows, Android, Meta Quest
- Obsługa wielu systemów postaci i standardów animacji
- Elastyczne mapowanie wizemów dla niestandardowych postaci
- Uniwersalne wsparcie języków - działa z dowolnym językiem mówionym poprzez analizę audio
Modele synchronizacji ust
Wtyczka oferuje dwa modele synchronizacji ust, aby dopasować się do różnych potrzeb projektu:
- Model Standardowy
- Model Realistyczny
Standardowy model synchronizacji ust zapewnia wydajną, wieloplatformową wydajność z szeroką kompatybilnością postaci:
- Działa z MetaHumans i wszystkimi typami niestandardowych postaci
- Zoptymalizowany pod kątem wydajności w czasie rzeczywistym na wszystkich platformach
- Niższe wymagania zasobów
- Pełna kompatybilność z lokalnym TTS (wtyczka Runtime Text To Speech)
- Odpowiedni dla aplikacji mobilnych i VR/AR
Aby używać Modelu Standardowego (Szybszego), musisz zainstalować dodatkową wtyczkę rozszerzającą. Zobacz sekcję Wymagania wstępne w celu uzyskania instrukcji instalacji.
Realistyczny model synchronizacji ust zapewnia zwiększoną wierność wizualną, szczególnie dla postaci MetaHuman:
- Ekskluzywny dla MetaHumans z zaawansowaną animacją twarzy
- Wyższa jakość wizualna z bardziej naturalnymi ruchami ust
- Nieco wyższe wymagania wydajnościowe
- Ograniczone wsparcie lokalnego TTS (zalecane zewnętrzne usługi TTS)
- Idealny dla doświadczeń kinowych i interakcji z postaciami z bliska
Model Realistyczny jest zawarty w głównej wtyczce i nie wymaga żadnych dodatkowych rozszerzeń do użycia.
Możesz wybrać odpowiedni model na podstawie wymagań twojego projektu dotyczących wydajności, kompatybilności postaci i jakości wizualnej.
Chociaż oba modele obsługują różne metody wejścia audio, model Realistyczny ma ograniczoną kompatybilność z lokalnym TTS z powodu konfliktów środowiska wykonawczego ONNX. Dla funkcjonalności zamiany tekstu na mowę z modelem Realistycznym zalecane są zewnętrzne usługi TTS (OpenAI, ElevenLabs).
Jak to działa
Wtyczka przetwarza wejście audio w następujący sposób:
- Dane audio są odbierane w formacie PCM typu float z określonymi kanałami i częstotliwością próbkowania
- Wtyczka przetwarza audio w celu wygenerowania wizemów (fonemów)
- Te wizemy napędzają animację synchronizacji ust przy użyciu zasobu pozy postaci
- Animacja jest stosowana do postaci w czasie rzeczywistym
Szybki start
Oto podstawowa konfiguracja do włączenia synchronizacji ust na twojej postaci:
- Dla postaci MetaHuman, postępuj zgodnie z Przewodnikiem konfiguracji MetaHuman
- Dla niestandardowych postaci, postępuj zgodnie z Przewodnikiem konfiguracji niestandardowych postaci
- Skonfiguruj przetwarzanie wejścia audio (na przykład w Event Graph)
- Połącz węzeł Blend Runtime MetaHuman Lip Sync w Anim Graph
- Odtwórz audio i zobacz, jak twoja postać mówi!
Dodatkowe zasoby
📦 Pobieranie i linki
- Pobierz na Fab
- Strona produktu
- Pobierz demo (Windows)
- Pobierz pliki źródłowe demo (UE 5.6) – Wymaga tego pluginu + Runtime Audio Importer, opcjonalnie: Text To Speech / AI Chatbot. Model standardowy wymaga małego rozszerzenia pluginu (zobacz tutaj)
🎥 Tutoriale wideo
Polecane demo:
Tutoriale realistycznego modelu (wysoka jakość):
- Synchronizacja ust w wysokiej jakości z ElevenLabs & OpenAI TTS ⭐ NOWE
- Synchronizacja ust na żywo z mikrofonu w wysokiej jakości ⭐ NOWE
Tutoriale standardowego modelu:
- Standardowa synchronizacja ust na żywo z mikrofonu
- Standardowa synchronizacja ust z lokalnym zamianą tekstu na mowę
- Standardowa synchronizacja ust z ElevenLabs & OpenAI TTS
Konfiguracja ogólna:
💬 Wsparcie
- Serwer wsparcia na Discordzie
- Niestandardowy rozwój: [email protected] (dostosowane rozwiązania dla zespołów i organizacji)