Übersicht
Runtime MetaHuman Lip Sync ist ein Plugin, das Echtzeit-, Offline- und plattformübergreifende Lippenanimation für sowohl MetaHuman- als auch benutzerdefinierte Charaktere ermöglicht. Es erlaubt Ihnen, die Lippen eines Charakters als Reaktion auf Audioeingaben aus verschiedenen Quellen zu animieren, einschließlich:
- Mikrofoneingang über Runtime Audio Importer's capturable sound wave
- Synthetisierte Sprache von Runtime Text To Speech oder Runtime AI Chatbot Integrator
- Jede Audiodaten im Float-PCM-Format (ein Array von Fließkomma-Samples)
Das Plugin generiert intern Viseme (visuelle Darstellungen von Phonemen) basierend auf der Audioeingabe. Da es direkt mit Audiodaten und nicht mit Text arbeitet, unterstützt das Plugin mehrsprachige Eingaben, einschließlich, aber nicht beschränkt auf Englisch, Spanisch, Französisch, Deutsch, Japanisch, Chinesisch, Koreanisch, Russisch, Italienisch, Portugiesisch, Arabisch und Hindi. Im Grunde wird jede Sprache unterstützt, da die Lippenanimation aus Audio-Phonemen und nicht aus sprachspezifischer Textverarbeitung generiert wird.
Das Standardmodell erzeugt 14 Viseme und führt die Lippenanimation mithilfe eines vordefinierten Pose-Assets durch. Im Gegensatz dazu generieren die Realistischen Modelle (ausschließlich für MetaHuman-Charaktere) 81 Gesichtssteuerungsänderungen ohne Abhängigkeit von einem vordefinierten Pose-Asset, was deutlich realistischere Gesichtsanimationen zur Folge hat.
Charakterkompatibilität
Trotz seines Namens funktioniert Runtime MetaHuman Lip Sync mit einer Vielzahl von Charakteren, die über MetaHumans hinausgehen:
Beliebte kommerzielle Charaktersysteme
- Daz Genesis 8/9 Charaktere
- Reallusion Character Creator 3/4 (CC3/CC4) Charaktere
- Mixamo Charaktere
- ReadyPlayerMe Avatare
Unterstützte Animationsstandards
- FACS-basierte Blendshape-Systeme
- Apple ARKit Blendshape-Standard
- Preston Blair Phonem-Sets
- 3ds Max Phonem-Systeme
- Jeder Charakter mit benutzerdefinierten Morph Targets für Gesichtsausdrücke
Detaillierte Anleitungen zur Verwendung des Plugins mit Nicht-MetaHuman-Charakteren finden Sie im Custom Character Setup Guide.
Animationsvorschau
Sehen Sie sich diese kurzen Animationen an, um die Qualität der vom Plugin erzeugten Lippenanimation über verschiedene Charaktertypen und Modelle hinweg zu sehen:




Hauptfunktionen
- Echtzeit-Lip Sync von Mikrofoneingang
- Unterstützung für Offline-Audiobearbeitung
- Plattformübergreifende Kompatibilität mit modellspezifischer Plattformunterstützung
- Unterstützung für mehrere Charaktersysteme und Animationsstandards
- Flexible Visem-Zuordnung für benutzerdefinierte Charaktere
- Universelle Sprachunterstützung - funktioniert mit jeder gesprochenen Sprache durch Audioanalyse
- Stimmungsbewusste Gesichtsanimation für verbesserte Ausdruckskraft
- Konfigurierbare Ausgabetypen (vollständiges Gesicht oder nur Mundsteuerung)
Lip Sync-Modelle
Das Plugin bietet mehrere Lip Sync-Modelle für verschiedene Projektanforderungen:
- Standardmodell
- Realistisches Modell
- Stimmungsfähiges realistisches Modell
Das Standard-Lip Sync-Modell bietet effiziente, plattformübergreifende Leistung mit breiter Charakterkompatibilität:
- Funktioniert mit MetaHumans und allen benutzerdefinierten Charaktertypen
- Für Echtzeitleistung optimiert
- Geringere Ressourcenanforderungen
- Volle Kompatibilität mit lokalem TTS (Runtime Text To Speech-Plugin)
- Plattformunterstützung: Windows, Android, Android-basierte Plattformen (einschließlich Meta Quest)
- Drei Optimierungsstufen: Original, Teiloptimiert und Hochoptimiert
Um das Standardmodell zu verwenden, müssen Sie ein zusätzliches Erweiterungs-Plugin installieren. Weitere Informationen finden Sie im Abschnitt Voraussetzungen.
Das realistische Lip Sync-Modell bietet eine verbesserte visuelle Qualität speziell für MetaHuman-Charaktere:
- MetaHuman-exklusiv mit erweiterter Gesichtsanimation (81 Gesichtssteuerungen)
- Höhere visuelle Qualität mit natürlicheren Mundbewegungen
- Etwas höhere Leistungsanforderungen
- Eingeschränkte lokale TTS-Unterstützung (externe TTS-Dienste empfohlen)
- Ideal für filmische Erfahrungen und Nahaufnahmen von Charakterinteraktionen
- Plattformunterstützung: Windows, Mac, iOS, Linux
- Drei Optimierungsstufen: Original, Teiloptimiert und Hochoptimiert
Das realistische Modell ist im Haupt-Plugin enthalten und erfordert keine zusätzlichen Erweiterungen.
Das stimmungsfähige realistische Modell bietet emotionsbewusste Gesichtsanimation für MetaHuman-Charaktere:
- MetaHuman-exklusiv mit stimmungsreaktiver Gesichtsanimation
- 12 verschiedene Stimmungstypen (Neutral, Glücklich, Traurig, Selbstbewusst, etc.)
- Konfigurierbare Stimmungsintensität (0,0 bis 1,0)
- Einstellbare Vorausschauzeit für verbesserte Synchronisation (20ms bis 200ms)
- Auswählbare Ausgabetypen: Vollständiges Gesicht oder nur Mundsteuerung
- Streaming-Audiobearbeitung für Echtzeitanwendungen
- Plattformunterstützung: Windows, Mac, iOS, Linux
Das * Mood-Enabled Model* beinhaltet erweiterte Funktionen wie konfigurierbare Vorausschau-Zeitsteuerung und selektive Steuerungsausgabe, was es ideal für Anwendungen macht, die eine Kontrolle des emotionalen Ausdrucks erfordern.
Sie können das passende Modell basierend auf Ihren Projektanforderungen für Leistung, Charakterkompatibilität, visuelle Qualität, Zielplattform und Funktionsbedarf auswählen.
Während alle Modelle verschiedene Audioeingabemethoden unterstützen, hat das reguläre Realistic-Modell aufgrund von ONNX-Laufzeitkonflikten eine eingeschränkte Kompatibilität mit lokalem TTS. Das Mood-Enabled Realistic-Modell ist jedoch vollständig mit lokalem TTS kompatibel. Für die Text-to-Speech-Funktionalität:
- Standardmodell: Kompatibel mit allen TTS-Optionen (lokal und extern)
- Realistic-Modell: Externe TTS-Dienste empfohlen (OpenAI, ElevenLabs)
- Mood-Enabled Realistic-Modell: Kompatibel mit allen TTS-Optionen (lokal und extern)
Funktionsweise
Das Plugin verarbeitet Audioeingaben auf folgende Weise:
- Audiodaten werden als PCM-Format in Float mit angegebenen Kanälen und Abtastrate empfangen
- Das Plugin verarbeitet das Audio, um Gesichtssteuerungsdaten oder Viseme zu generieren, abhängig vom Modell
- Für mood-fähige Modelle wird emotionaler Kontext auf die Gesichtsanimation angewendet
- Die Animationsdaten steuern die Gesichtsbewegungen des Charakters in Echtzeit
Schnellstart
Hier ist eine grundlegende Einrichtung, um Lip Sync für Ihren Charakter zu aktivieren:
- Für MetaHuman-Charaktere, folgen Sie der Setup-Anleitung
- Für benutzerdefinierte Charaktere, folgen Sie der Anleitung für benutzerdefinierte Charaktere
- Wählen und konfigurieren Sie Ihr bevorzugtes Lip-Sync-Modell
- Richten Sie die Audioeingabeverarbeitung in Ihrem Blueprint ein
- Verbinden Sie den entsprechenden Lip-Sync-Knoten im Animation Blueprint
- Spielen Sie Audio ab und sehen Sie, wie Ihr Charakter mit Emotion spricht!
Zusätzliche Ressourcen
📦 Downloads & Links
- Holen Sie es sich auf Fab
- Produkt-Website
- Demo herunterladen (Windows)
- Demo-Quelldateien herunterladen (UE 5.6) – Benötigt dieses Plugin + Runtime Audio Importer, optional: Text To Speech / AI Chatbot. Das Standardmodell erfordert ein kleines Erweiterungs-Plugin (siehe hier)
🎥 Video-Tutorials
Vorgestellte Demo:
Realistische Modelle (Hochwertig) Tutorials:
- Hochwertige Lip Sync mit Stimmungssteuerung & lokalem TTS ⭐ NEU
- Hochwertige Lip Sync mit ElevenLabs & OpenAI TTS
- Hochwertige Live-Mikrofon Lip Sync
Standard-Modelle Tutorials:
- Standard Live-Mikrofon Lip Sync
- Standard Lip Sync mit lokalem Text-to-Speech
- Standard Lip Sync mit ElevenLabs & OpenAI TTS
Allgemeine Einrichtung:
💬 Support
- Discord-Support-Server
- Maßgeschneiderte Entwicklung: [email protected] (angepasste Lösungen für Teams & Organisationen)