Übersicht
Runtime MetaHuman Lip Sync ist ein Plugin, das Echtzeit-, Offline- und plattformübergreifende Lippenanimation für sowohl MetaHuman- als auch benutzerdefinierte Charaktere ermöglicht. Es erlaubt Ihnen, die Lippen eines Charakters als Reaktion auf Audioeingaben aus verschiedenen Quellen zu animieren, einschließlich:
- Mikrofoneingaben über Runtime Audio Importer's capturable sound wave
- Synthetisierte Sprache von Runtime Text To Speech oder Runtime AI Chatbot Integrator
- Beliebige Audiodaten im Float-PCM-Format (ein Array von Fließkomma-Samples)
Das Plugin generiert intern Viseme (visuelle Darstellungen von Phonemen) basierend auf der Audioeingabe. Da es direkt mit Audiodaten und nicht mit Text arbeitet, unterstützt das Plugin mehrsprachige Eingaben, einschließlich, aber nicht beschränkt auf Englisch, Spanisch, Französisch, Deutsch, Japanisch, Chinesisch, Koreanisch, Russisch, Italienisch, Portugiesisch, Arabisch und Hindi. Tatsächlich wird jede Sprache unterstützt, da die Lippenanimation aus Audio-Phonemen und nicht aus sprachspezifischer Textverarbeitung generiert wird.
Das Standardmodell produziert 14 Viseme und führt die Lippenanimation mithilfe einer vordefinierten Pose-Asset durch. Im Gegensatz dazu generiert das Realistische Modell (exklusiv für MetaHuman-Charaktere) 250 Morph-Target-Änderungen ohne Verwendung eines vordefinierten Pose-Assets, was deutlich realistischere Gesichtsanimationen ermöglicht.
Charakterkompatibilität
Trotz seines Namens funktioniert Runtime MetaHuman Lip Sync mit einer Vielzahl von Charakteren, die über MetaHumans hinausgehen:
Beliebte kommerzielle Charaktersysteme
- Daz Genesis 8/9 Charaktere
- Reallusion Character Creator 3/4 (CC3/CC4) Charaktere
- Mixamo Charaktere
- ReadyPlayerMe Avatare
Unterstützte Animationsstandards
- FACS-basierte Blendshape-Systeme
- Apple ARKit Blendshape-Standard
- Preston Blair Phonem-Sets
- 3ds Max Phonem-Systeme
- Jeder Charakter mit benutzerdefinierten Morph Targets für Gesichtsausdrücke
Detaillierte Anweisungen zur Verwendung des Plugins mit Nicht-MetaHuman-Charakteren finden Sie im Custom Character Setup Guide.
Animationsvorschau
Sehen Sie sich diese kurzen Animationen an, um die Qualität der Lippenanimation zu sehen, die das Plugin bei verschiedenen Charaktertypen und Modellen erzeugt:




Hauptmerkmale
- Echtzeit-Lip Sync von Mikrofoneingang
- Unterstützung für Offline-Audiobearbeitung
- Plattformübergreifende Kompatibilität: Windows, Android, Meta Quest
- Unterstützung für mehrere Charaktersysteme und Animationsstandards
- Flexible Visem-Zuordnung für benutzerdefinierte Charaktere
- Universelle Sprachunterstützung - funktioniert mit jeder gesprochenen Sprache durch Audioanalyse
Lip Sync-Modelle
Das Plugin bietet zwei Lip Sync-Modelle für verschiedene Projektanforderungen:
- Standardmodell
- Realistisches Modell
Das Standard-Lip Sync-Modell bietet effiziente, plattformübergreifende Leistung mit breiter Charakterkompatibilität:
- Funktioniert mit MetaHumans und allen benutzerdefinierten Charaktertypen
- Für Echtzeitleistung auf allen Plattformen optimiert
- Geringere Ressourcenanforderungen
- Volle Kompatibilität mit lokaler TTS (Runtime Text To Speech-Plugin)
- Geeignet für mobile und VR/AR-Anwendungen
Um das Standard (Schnelleres) Modell zu verwenden, müssen Sie ein zusätzliches Erweiterungs-Plugin installieren. Siehe Voraussetzungen Abschnitt für Installationsanweisungen.
Das realistische Lip Sync-Modell bietet verbesserte visuelle Qualität speziell für MetaHuman-Charaktere:
- Exklusiv für MetaHumans mit erweiterter Gesichtsanimation
- Höhere visuelle Qualität mit natürlicheren Mundbewegungen
- Etwas höhere Leistungsanforderungen
- Eingeschränkte lokale TTS-Unterstützung (externe TTS-Dienste empfohlen)
- Ideal für filmische Erfahrungen und Nahaufnahmen von Charakterinteraktionen
Das Realistische Modell ist im Haupt-Plugin enthalten und erfordert keine zusätzlichen Erweiterungen.
Sie können das passende Modell basierend auf Ihren Projektanforderungen für Leistung, Charakterkompatibilität und visuelle Qualität auswählen.
Während beide Modelle verschiedene Audioeingabemethoden unterstützen, hat das Realistische Modell aufgrund von ONNX-Runtime-Konflikten eine eingeschränkte Kompatibilität mit lokaler TTS. Für Text-to-Speech-Funktionalität mit dem Realistischen Modell werden externe TTS-Dienste (OpenAI, ElevenLabs) empfohlen.
Funktionsweise
Das Plugin verarbeitet Audioeingaben auf folgende Weise:
- Audiodaten werden als PCM-Format mit angegebenen Kanälen und Abtastrate empfangen
- Das Plugin verarbeitet das Audio, um Viseme (Phoneme) zu generieren
- Diese Viseme steuern die Lip Sync-Animation mithilfe des Pose-Assets des Charakters
- Die Animation wird in Echtzeit auf den Charakter angewendet
Schnellstart
Hier ist eine grundlegende Einrichtung zur Aktivierung von Lip Sync für Ihren Charakter:
- Für MetaHuman-Charaktere befolgen Sie die MetaHuman Setup Guide
- Für benutzerdefinierte Charaktere befolgen Sie die Custom Character Setup Guide
- Richten Sie die Audioeingabeverarbeitung ein (z. B. im Event Graph)
- Verbinden Sie den Blend Runtime MetaHuman Lip Sync-Knoten im Anim Graph
- Spielen Sie Audio ab und sehen Sie, wie Ihr Charakter spricht!
Zusätzliche Ressourcen
📦 Downloads & Links
- Auf Fab erhältlich
- Produktwebsite
- Demo herunterladen (Windows)
- Demo-Quelldateien herunterladen (UE 5.6) – Benötigt dieses Plugin + Runtime Audio Importer, optional: Text To Speech / AI Chatbot. Das Standardmodell erfordert ein kleines Erweiterungs-Plugin (siehe hier)
🎥 Video-Tutorials
Vorgestellte Demo:
Realistic Model (High-Quality) Tutorials:
- High-Quality Lip Sync with ElevenLabs & OpenAI TTS ⭐ NEU
- High-Quality Live Microphone Lip Sync ⭐ NEU
Standard Model Tutorials:
- Standard Live Microphone Lip Sync
- Standard Lip Sync with Local Text-to-Speech
- Standard Lip Sync with ElevenLabs & OpenAI TTS
Allgemeines Setup:
💬 Support
- Discord-Support-Server
- Custom Development: [email protected] (maßgeschneiderte Lösungen für Teams & Organisationen)