Aperçu
Runtime MetaHuman Lip Sync est un plugin permettant une synchronisation labiale en temps réel, hors ligne et multiplateforme pour les MetaHumains et les personnages personnalisés. Il vous permet d'animer les lèvres d'un personnage en réponse à une entrée audio provenant de diverses sources, notamment :
- Entrée microphone via Runtime Audio Importer's capturable sound wave
- Synthèse vocale depuis Runtime Text To Speech ou Runtime AI Chatbot Integrator
- Toute donnée audio au format PCM float (un tableau d'échantillons en virgule flottante)
Le plugin génère en interne des visèmes (représentations visuelles des phonèmes) basés sur l'entrée audio et effectue l'animation de synchronisation labiale à l'aide d'un asset de pose prédéfini.
Compatibilité des Personnages
Malgré son nom, Runtime MetaHuman Lip Sync fonctionne avec une large gamme de personnages au-delà des simples MetaHumains :
Systèmes de Personnages Commerciaux Populaires
- Personnages Daz Genesis 8/9
- Personnages Reallusion Character Creator 3/4 (CC3/CC4)
- Personnages Mixamo
- Avatars ReadyPlayerMe
Support des Standards d'Animation
- Systèmes de blendshapes basés sur FACS
- Standard de blendshapes Apple ARKit
- Ensembles de phonèmes Preston Blair
- Systèmes de phonèmes 3ds Max
- Tout personnage avec des morph targets personnalisés pour les expressions faciales
Pour des instructions détaillées sur l'utilisation du plugin avec des personnages non-MetaHuman, consultez le Guide de Configuration des Personnages Personnalisés.
Aperçu de l'Animation
Découvrez ces courtes animations pour voir la qualité de la synchronisation labiale produite par le plugin sur différents types de personnages et modèles :




Fonctionnalités clés
- Synchronisation labiale en temps réel à partir de l'entrée microphone
- Prise en charge du traitement audio hors ligne
- Compatibilité multiplateforme : Windows, Android, Meta Quest
- Support de multiples systèmes de personnages et standards d'animation
- Mappage flexible des visèmes pour les personnages personnalisés
Modèles de synchronisation labiale
Le plugin propose deux modèles de synchronisation labiale adaptés à différents besoins de projet :
- Modèle Standard
- Modèle Réaliste
Le modèle standard offre des performances efficaces et multiplateformes avec une large compatibilité de personnages :
- Fonctionne avec les MetaHumans et tous types de personnages personnalisés
- Optimisé pour des performances en temps réel sur toutes les plateformes
- Exigences matérielles réduites
- Compatibilité totale avec la TTS locale (plugin Runtime Text To Speech)
- Adapté aux applications mobiles et VR/AR
Le modèle réaliste offre une fidélité visuelle améliorée spécifiquement pour les personnages MetaHuman :
- Exclusif aux MetaHumans avec animation faciale avancée
- Qualité visuelle supérieure avec des mouvements de bouche plus naturels
- Exigences de performance légèrement plus élevées
- Support limité de la TTS locale (services TTS externes recommandés)
- Idéal pour les expériences cinématiques et interactions rapprochées avec les personnages
Vous pouvez choisir le modèle approprié en fonction des exigences de votre projet en termes de performance, compatibilité des personnages et qualité visuelle.
Bien que les deux modèles prennent en charge diverses méthodes d'entrée audio, le modèle Réaliste a une compatibilité limitée avec la TTS locale en raison de conflits avec le runtime ONNX. Pour les fonctionnalités de synthèse vocale avec le modèle Réaliste, les services TTS externes (OpenAI, ElevenLabs) sont recommandés.
Fonctionnement
Le plugin traite l'entrée audio de la manière suivante :
- Les données audio sont reçues au format PCM en float avec des canaux et un taux d'échantillonnage spécifiés
- Le plugin traite l'audio pour générer des visèmes (phonèmes)
- Ces visèmes animent la synchronisation labiale en utilisant l'asset de pose du personnage
- L'animation est appliquée au personnage en temps réel
Démarrage rapide
Voici une configuration de base pour activer la synchronisation labiale sur votre personnage :
- Pour les personnages MetaHuman, suivez le Guide de configuration MetaHuman
- Pour les personnages personnalisés, suivez le Guide de configuration des personnages personnalisés
- Configurez le traitement de l'entrée audio (par exemple dans le Event Graph)
- Connectez le nœud Blend Runtime MetaHuman Lip Sync dans l'Anim Graph
- Jouez l'audio et voyez votre personnage parler !
Ressources supplémentaires
📦 Téléchargements & Liens
- Obtenez-le sur Fab
- Site web du produit
- Télécharger la démo (Windows)
- Télécharger les fichiers sources de la démo (UE 5.6)
🎥 Tutoriels vidéo
Démo mise en avant :
Tutoriels du modèle réaliste (haute qualité) :
- Synchronisation labiale haute qualité avec ElevenLabs & OpenAI TTS ⭐ NOUVEAU
- Synchronisation labiale en direct haute qualité avec microphone ⭐ NOUVEAU
Tutoriels du modèle standard :
- Synchronisation labiale standard avec microphone en direct
- Synchronisation labiale standard avec synthèse vocale locale
- Synchronisation labiale standard avec ElevenLabs & OpenAI TTS
Configuration générale :
💬 Support
- Serveur Discord de support
- Développement personnalisé : [email protected] (solutions sur mesure pour les équipes et organisations)