Comment utiliser le plugin
Ce guide vous explique comment configurer Runtime MetaHuman Lip Sync pour vos personnages MetaHuman.
Remarque : Runtime MetaHuman Lip Sync fonctionne à la fois avec les MetaHuman et les personnages personnalisés. Le plugin prend en charge divers types de personnages, notamment :
- Les personnages commerciaux populaires (Daz Genesis 8/9, Reallusion CC3/CC4, Mixamo, ReadyPlayerMe, etc.)
- Les personnages avec des blendshapes basés sur FACS
- Les modèles utilisant les standards de blendshape ARKit
- Les personnages avec des ensembles de phonèmes Preston Blair
- Les systèmes de phonèmes 3ds Max
- Tout personnage avec des morph targets personnalisés pour les expressions faciales
Pour des instructions détaillées sur la configuration des personnages personnalisés, y compris les références de mappage des visèmes pour tous les standards ci-dessus, consultez le Guide de configuration des personnages personnalisés.
Prérequis
Avant de commencer, assurez-vous que :
- Le plugin MetaHuman est activé dans votre projet
- Vous avez au moins un personnage MetaHuman téléchargé et disponible dans votre projet
- Le plugin Runtime MetaHuman Lip Sync est installé
Plugins supplémentaires :
- Si vous prévoyez d'utiliser la capture audio (par exemple, l'entrée microphone), installez le plugin Runtime Audio Importer.
- Si vous prévoyez d'utiliser la fonctionnalité text-to-speech, installez le plugin Runtime Text To Speech.
Configuration spécifique à la plateforme
Configuration Android / Meta Quest
Si vous ciblez les plateformes Android ou Meta Quest et rencontrez des erreurs de compilation avec ce plugin, vous devrez désactiver l'architecture Android x86_64 (x64) dans les paramètres de votre projet :
- Allez dans Edit > Project Settings
- Naviguez vers Platforms > Android
- Sous Platforms - Android, section Build, trouvez Support x86_64 [aka x64] et assurez-vous qu'il est désactivé, comme illustré ci-dessous
En effet, le plugin ne prend actuellement en charge que les architectures arm64-v8a et armeabi-v7a pour les plateformes Android / Meta Quest.
Processus de configuration
Étape 1 : Localiser et modifier le Blueprint d'animation faciale
Vous devez modifier un Animation Blueprint qui sera utilisé pour les animations faciales de votre personnage MetaHuman. Le Animation Blueprint facial par défaut de MetaHuman se trouve à l'emplacement suivant :
Content/MetaHumans/Common/Face/Face_AnimBP
Vous avez plusieurs options pour implémenter la fonctionnalité de lip sync :
- Modifier l'Asset par défaut (Option la plus simple)
- Créer un doublon
- Utiliser un Animation Blueprint personnalisé
Ouvrez directement le Face_AnimBP
par défaut et effectuez vos modifications. Tous les changements affecteront tous les personnages MetaHuman utilisant ce Animation Blueprint.
Note : Cette approche est pratique mais impactera tous les personnages utilisant le Animation Blueprint par défaut.
- Dupliquez
Face_AnimBP
et donnez-lui un nom descriptif - Localisez la classe Blueprint de votre personnage (par exemple, pour le personnage "Bryan", ce serait dans
Content/MetaHumans/Bryan/BP_Bryan
) - Ouvrez le Blueprint du personnage et trouvez le composant Face
- Changez la propriété Anim Class pour votre nouveau Animation Blueprint dupliqué
Note : Cette approche vous permet de personnaliser le lip sync pour des personnages spécifiques tout en laissant les autres inchangés.
Vous pouvez implémenter le blending de lip sync dans n'importe quel Animation Blueprint ayant accès aux os faciaux requis :
- Créez ou utilisez un Animation Blueprint personnalisé existant
- Assurez-vous que votre Animation Blueprint fonctionne avec un squelette contenant les mêmes os faciaux que le
Face_Archetype_Skeleton
par défaut des MetaHumans (qui est le squelette standard utilisé pour tout personnage MetaHuman)
Note : Cette approche vous offre une flexibilité maximale pour l'intégration avec des systèmes d'animation personnalisés.
Important : Le blending Runtime MetaHuman Lip Sync peut être implémenté dans n'importe quel asset Animation Blueprint ayant accès à une pose contenant les os faciaux présents dans le Face_Archetype_Skeleton
par défaut des MetaHumans. Vous n'êtes pas limité aux options ci-dessus - ce ne sont que des approches d'implémentation courantes.
Étape 2 : Configuration du Event Graph
Ouvrez votre Face Animation Blueprint et passez au Event Graph
. Vous devrez créer un Runtime Viseme Generator qui traitera les données audio et générera des visèmes.
- Ajoutez le nœud
Event Blueprint Begin Play
s'il n'existe pas déjà - Ajoutez le nœud
Create Runtime Viseme Generator
et connectez-le à l'événement Begin Play - Sauvegardez la sortie dans une variable (par exemple "VisemeGenerator") pour utilisation dans d'autres parties du graphe
Étape 3 : Configuration du traitement de l'entrée audio
Vous devez configurer une méthode pour traiter l'entrée audio. Il existe plusieurs façons de le faire selon votre source audio.
- Microphone (Temps réel)
- Microphone (Playback)
- Text-to-Speech (Local)
- Text-to-Speech (APIs externes)
- Depuis un fichier/buffer audio
- Source audio personnalisée
Cette approche effectue le lip sync en temps réel pendant la prise de parole via le microphone :
- Créez un Capturable Sound Wave en utilisant Runtime Audio Importer
- Avant de commencer la capture audio, liez-vous au délégué
OnPopulateAudioData
- Dans la fonction liée, appelez
ProcessAudioData
depuis votre Runtime Viseme Generator - Commencez la capture audio depuis le microphone
Cette approche capture l'audio d'un microphone, puis le lit avec lip sync :
- Créez un Capturable Sound Wave en utilisant Runtime Audio Importer
- Commencez la capture audio depuis le microphone
- Avant de lire le capturable sound wave, liez-vous à son délégué
OnGeneratePCMData
- Dans la fonction liée, appelez
ProcessAudioData
depuis votre Runtime Viseme Generator
Note : Si vous souhaitez traiter les données audio par plus petits morceaux pour un lip sync plus réactif, ajustez le calcul dans la fonction SetNumSamplesPerChunk
. Par exemple, diviser le sample rate par 150 (streaming toutes les ~6.67 ms) au lieu de 100 (streaming toutes les 10 ms) fournira des mises à jour de lip sync plus fréquentes.
- Standard
- Streaming
Cette approche synthétise la parole à partir de texte et effectue le lip sync :
- Utilisez Runtime Text To Speech pour générer la parole à partir de texte
- Utilisez Runtime Audio Importer pour importer l'audio synthétisé
- Avant de lire le sound wave importé, liez-vous à son délégué
OnGeneratePCMData
- Dans la fonction liée, appelez
ProcessAudioData
depuis votre Runtime Viseme Generator
Note : Si vous souhaitez traiter les données audio par plus petits morceaux pour un lip sync plus réactif, ajustez le calcul dans la fonction SetNumSamplesPerChunk
. Par exemple, diviser le sample rate par 150 (streaming toutes les ~6.67 ms) au lieu de 100 (streaming toutes les 10 ms) fournira des mises à jour de lip sync plus fréquentes.
Cette approche utilise la synthèse vocale en streaming avec lip sync en temps réel :
- Utilisez Runtime Text To Speech pour générer la parole en streaming à partir de texte
- Utilisez Runtime Audio Importer pour importer l'audio synthétisé
- Avant de lire le sound wave en streaming, liez-vous à son délégué
OnGeneratePCMData
- Dans la fonction liée, appelez
ProcessAudioData
depuis votre Runtime Viseme Generator
Note : Si vous souhaitez traiter les données audio par plus petits morceaux pour un lip sync plus réactif, ajustez le calcul dans la fonction SetNumSamplesPerChunk
. Par exemple, diviser le sample rate par 150 (streaming toutes les ~6.67 ms) au lieu de 100 (streaming toutes les 10 ms) fournira des mises à jour de lip sync plus fréquentes.
- Standard
- Streaming
Cette approche utilise le plugin Runtime AI Chatbot Integrator pour générer de la parole synthétisée à partir de services d'IA et effectuer le lip sync :
- Utilisez Runtime AI Chatbot Integrator pour générer la parole à partir de texte en utilisant des APIs externes (OpenAI, ElevenLabs, etc.)
- Utilisez Runtime Audio Importer pour importer les données audio synthétisées
- Avant de lire le sound wave importé, liez-vous à son délégué
OnGeneratePCMData
- Dans la fonction liée, appelez
ProcessAudioData
depuis votre Runtime Viseme Generator
Note : Si vous souhaitez traiter les données audio par plus petits morceaux pour un lip sync plus réactif, ajustez le calcul dans la fonction SetNumSamplesPerChunk
. Par exemple, diviser le sample rate par 150 (streaming toutes les ~6.67 ms) au lieu de 100 (streaming toutes les 10 ms) fournira des mises à jour de lip sync plus fréquentes.
Cette approche utilise le plugin Runtime AI Chatbot Integrator pour se connecter aux APIs TTS en streaming (comme ElevenLabs Streaming API) et effectuer le lip sync :
- Utilisez Runtime AI Chatbot Integrator pour se connecter aux APIs TTS en streaming
- Utilisez Runtime Audio Importer pour importer les données audio synthétisées
- Avant de lire le sound wave en streaming, liez-vous à son délégué
OnGeneratePCMData
- Dans la fonction liée, appelez
ProcessAudioData
depuis votre Runtime Viseme Generator
Note : Si vous souhaitez traiter les données audio par plus petits morceaux pour un lip sync plus réactif, ajustez le calcul dans la fonction SetNumSamplesPerChunk
. Par exemple, diviser le sample rate par 150 (streaming toutes les ~6.67 ms) au lieu de 100 (streaming toutes les 10 ms) fournira des mises à jour de lip sync plus fréquentes.
Cette approche utilise des fichiers audio pré-enregistrés ou des buffers audio pour le lip sync :
- Utilisez Runtime Audio Importer pour importer un fichier audio depuis le disque ou la mémoire
- Avant de lire le sound wave importé, liez-vous à son délégué
OnGeneratePCMData
- Dans la fonction liée, appelez
ProcessAudioData
depuis votre Runtime Viseme Generator - Jouez le sound wave importé et observez l'animation de lip sync
Note : Si vous souhaitez traiter les données audio par plus petits morceaux pour un lip sync plus réactif, ajustez le calcul dans la fonction SetNumSamplesPerChunk
. Par exemple, diviser le sample rate par 150 (streaming toutes les ~6.67 ms) au lieu de 100 (streaming toutes les 10 ms) fournira des mises à jour de lip sync plus fréquentes.
Pour une source audio personnalisée, vous avez besoin :
- De données audio au format PCM float (un tableau d'échantillons en virgule flottante)
- Du sample rate et du nombre de canaux
- D'appeler
ProcessAudioData
depuis votre Runtime Viseme Generator avec ces paramètres
Voici un exemple de streaming audio depuis une source personnalisée :
Note : Si vous souhaitez traiter les données audio par plus petits morceaux pour un lip sync plus réactif, ajustez le calcul dans la fonction SetNumSamplesPerChunk
. Par exemple, diviser le sample rate par 150 (streaming toutes les ~6.67 ms) au lieu de 100 (streaming toutes les 10 ms) fournira des mises à jour de lip sync plus fréquentes.
Étape 4 : Configuration de l'Anim Graph
Après avoir configuré le Event Graph, passez à l'Anim Graph
pour connecter le viseme generator à l'animation du personnage :
Lip Sync
- Localisez la pose contenant le visage MetaHuman (typiquement depuis
Use cached pose 'Body Pose'
) - Ajoutez le nœud
Blend Runtime MetaHuman Lip Sync
- Connectez la pose au
Source Pose
du nœudBlend Runtime MetaHuman Lip Sync
- Connectez votre variable
RuntimeVisemeGenerator
à la brocheViseme Generator
- Connectez la sortie du nœud
Blend Runtime MetaHuman Lip Sync
à la brocheResult
de l'Output Pose
Lorsque le lip sync est détecté dans l'audio, votre personnage s'animera dynamiquement en conséquence :
Animation de rire
Vous pouvez également ajouter des animations de rire qui répondront dynamiquement aux rires détectés dans l'audio :
- Ajoutez le nœud
Blend Runtime MetaHuman Laughter
- Connectez votre variable
RuntimeVisemeGenerator
à la brocheViseme Generator
- Si vous utilisez déjà le lip sync :
- Connectez la sortie du nœud
Blend Runtime MetaHuman Lip Sync
auSource Pose
du nœudBlend Runtime MetaHuman Laughter
- Connectez la sortie du nœud
Blend Runtime MetaHuman Laughter
à la brocheResult
de l'Output Pose
- Connectez la sortie du nœud
- Si vous utilisez uniquement le rire sans lip sync :
- Connectez votre source pose directement au `Source Pose