Aller au contenu principal

Configuration du Plugin

Configuration du Modèle

Configuration Standard du Modèle

Le nœud Create Runtime Viseme Generator utilise des paramètres par défaut qui fonctionnent bien pour la plupart des scénarios. La configuration est gérée via les propriétés du nœud de mélange de l'Animation Blueprint.

Pour les options de configuration de l'Animation Blueprint, consultez la section Configuration de la Synchronisation Labiale ci-dessous.

Configuration du Modèle Réaliste

Le nœud Create Realistic MetaHuman Lip Sync Generator accepte un paramètre Configuration facultatif qui vous permet de personnaliser le comportement du générateur :

Type de Modèle

Le paramètre Model Type détermine quelle version du modèle réaliste utiliser :

Type de ModèlePerformanceQualité VisuelleGestion du BruitCas d'Utilisation Recommandés
Highly Optimized (Par défaut)Performance la plus élevée, utilisation CPU la plus faibleBonne qualitéPeut montrer des mouvements de bouche notables avec du bruit de fond ou des sons non vocauxEnvironnements audio propres, scénarios critiques en performance
Semi-OptimizedBonne performance, utilisation CPU modéréeHaute qualitéMeilleure stabilité avec l'audio bruitéÉquilibre performance/qualité, conditions audio mixtes
OriginalAdapté à une utilisation en temps réel sur les CPU modernesQualité la plus élevéePlus stable avec le bruit de fond et les sons non vocauxProductions de haute qualité, environnements audio bruyants, lorsque la précision maximale est nécessaire

Paramètres de Performance

Intra Op Threads : Contrôle le nombre de threads utilisés pour les opérations de traitement interne du modèle.

  • 0 (Par défaut/Automatique) : Utilise la détection automatique (typiquement 1/4 des cœurs CPU disponibles, maximum 4)
  • 1-16 : Spécifiez manuellement le nombre de threads. Des valeurs plus élevées peuvent améliorer les performances sur les systèmes multi-cœurs mais utilisent plus de CPU

Inter Op Threads : Contrôle le nombre de threads utilisés pour l'exécution parallèle de différentes opérations du modèle.

  • 0 (Par défaut/Automatique) : Utilise la détection automatique (typiquement 1/8 des cœurs CPU disponibles, maximum 2)
  • 1-8 : Spécifiez manuellement le nombre de threads. Généralement gardé bas pour le traitement en temps réel

Taille des Blocs de Traitement

Le paramètre Processing Chunk Size détermine combien d'échantillons sont traités à chaque étape d'inférence. La valeur par défaut est 160 échantillons (10ms d'audio à 16kHz) :

  • Des valeurs plus petites fournissent des mises à jour plus fréquentes mais augmentent l'utilisation CPU
  • Des valeurs plus grandes réduisent la charge CPU mais peuvent diminuer la réactivité de la synchronisation labiale
  • Il est recommandé d'utiliser des multiples de 160 pour un alignement optimal

Setting Processing Chunk Size

Configuration du Modèle avec Humeur

Le nœud Create Realistic MetaHuman Lip Sync With Mood Generator fournit des options de configuration supplémentaires au-delà du modèle réaliste de base :

Configuration de Base

Lookahead Ms : Timing d'anticipation en millisecondes pour une meilleure précision de la synchronisation labiale.

  • Par défaut : 80ms
  • Plage : 20ms à 200ms (doit être divisible par 20)
  • Des valeurs plus élevées fournissent une meilleure synchronisation mais augmentent la latence

Output Type : Contrôle quels contrôles faciaux sont générés.

  • Full Face : Tous les 81 contrôles faciaux (sourcils, yeux, nez, bouche, mâchoire, langue)
  • Mouth Only : Seulement les contrôles liés à la bouche, la mâchoire et la langue

Performance Settings : Utilise les mêmes paramètres Intra Op Threads et Inter Op Threads que le modèle réaliste régulier.

Paramètres d'Humeur

Humeurs Disponibles :

  • Neutre, Heureux, Triste, Dégoût, Colère, Surprise, Peur
  • Confiant, Excité, Ennuyé, Enjoué, Confus

Intensité de l'Humeur : Contrôle la force avec laquelle l'humeur affecte l'animation (0.0 à 1.0)

Contrôle de l'Humeur en Temps Réel

Vous pouvez ajuster les paramètres d'humeur pendant l'exécution en utilisant les fonctions suivantes :

  • Set Mood : Changer le type d'humeur actuel
  • Set Mood Intensity : Ajuster la force avec laquelle l'humeur affecte l'animation (0.0 à 1.0)
  • Set Lookahead Ms : Modifier le timing d'anticipation pour la synchronisation
  • Set Output Type : Basculer entre les contrôles Full Face et Mouth Only

Mood Configuration

Guide de Sélection d'Humeur

Choisissez des humeurs appropriées en fonction de votre contenu :

HumeurIdéal PourPlage d'Intensité Typique
NeutreConversation générale, narration, état par défaut0.5 - 1.0
HeureuxContenu positif, dialogue joyeux, célébrations0.6 - 1.0
TristeContenu mélancolique, scènes émotionnelles, moments sombres0.5 - 0.9
DégoûtRéactions négatives, contenu déplaisant, rejet0.4 - 0.8
ColèreDialogue agressif, scènes conflictuelles, frustration0.6 - 1.0
SurpriseÉvénements inattendus, révélations, réactions de choc0.7 - 1.0
PeurSituations menaçantes, anxiété, dialogue nerveux0.5 - 0.9
ConfiantPrésentations professionnelles, dialogue de leadership, discours assertif0.7 - 1.0
ExcitéContenu énergique, annonces, dialogue enthousiaste0.8 - 1.0
EnnuyéContenu monotone, dialogue désintéressé, discours fatigué0.3 - 0.7
EnjouéConversation décontractée, humour, interactions légères0.6 - 0.9
ConfusDialogue riche en questions, incertitude, perplexité0.4 - 0.8

Configuration de l'Animation Blueprint

Configuration de la Synchronisation Labiale

Le nœud Blend Runtime MetaHuman Lip Sync a des options de configuration dans son panneau de propriétés :

PropriétéPar défautDescription
Interpolation Speed25Contrôle la rapidité des transitions entre les visèmes. Des valeurs plus élevées entraînent des transitions plus rapides et plus abruptes.
Reset Time0.2La durée en secondes après laquelle la synchronisation labiale est réinitialisée. Utile pour empêcher la synchronisation labiale de continuer après l'arrêt de l'audio.

Animation de Rire

Vous pouvez également ajouter des animations de rire qui répondront dynamiquement aux rires détectés dans l'audio :

  1. Ajoutez le nœud Blend Runtime MetaHuman Laughter
  2. Connectez votre variable RuntimeVisemeGenerator à la broche Viseme Generator
  3. Si vous utilisez déjà la synchronisation labiale :
    • Connectez la sortie du nœud Blend Runtime MetaHuman Lip Sync à la Source Pose du nœud Blend Runtime MetaHuman Laughter
    • Connectez la sortie du nœud Blend Runtime MetaHuman Laughter à la broche Result de l'Output Pose
  4. Si vous utilisez uniquement le rire sans synchronisation labiale :
    • Connectez votre pose source directement à la Source Pose du nœud Blend Runtime MetaHuman Laughter
    • Connectez la sortie à la broche Result

Blend Runtime MetaHuman Laughter

Lorsqu'un rire est détecté dans l'audio, votre personnage s'animera dynamiquement en conséquence :

Laughter

Configuration du Rire

Le nœud Blend Runtime MetaHuman Laughter a ses propres options de configuration :

PropriétéPar défautDescription
Interpolation Speed25Contrôle la rapidité des transitions entre les animations de rire. Des valeurs plus élevées entraînent des transitions plus rapides et plus abruptes.
Reset Time0.2La durée en secondes après laquelle le rire est réinitialisé. Utile pour empêcher le rire de continuer après l'arrêt de l'audio.
Max Laughter Weight0.7Échelle l'intensité maximale de l'animation de rire (0.0 - 1.0).

Note : La détection de rire n'est actuellement disponible qu'avec le Standard Model.

Combinaison avec des Animations Existantes

Pour appliquer la synchronisation labiale et le rire parallèlement aux animations corporelles existantes et aux animations faciales personnalisées sans les écraser :

  1. Ajoutez un nœud Layered blend per bone entre vos animations corporelles et la sortie finale. Assurez-vous que Use Attached Parent est vrai.
  2. Configurez la structure des couches :
    • Ajoutez 1 item au tableau Layer Setup
    • Ajoutez 3 items aux Branch Filters pour la couche, avec les Bone Name suivants :
      • FACIAL_C_FacialRoot
      • FACIAL_C_Neck2Root
      • FACIAL_C_Neck1Root
  3. Important pour les animations faciales personnalisées : Dans Curve Blend Option, sélectionnez "Use Max Value". Cela permet aux animations faciales personnalisées (expressions, émotions, etc.) d'être correctement superposées sur la synchronisation labiale.
  4. Faites les connexions :
    • Animations existantes (comme BodyPose) → entrée Base Pose
    • Sortie d'animation faciale (des nœuds de synchronisation labiale et/ou de rire) → entrée Blend Poses 0
    • Nœud de mélange en couches → pose Result finale

Layered Blend Per Bone

Sélection du Jeu de Morph Targets

Le Standard Model utilise des assets de pose qui prennent en charge nativement toute convention de nommage de morph targets via la configuration d'asset de pose personnalisée. Aucune configuration supplémentaire n'est nécessaire.

Ajustement Fin du Comportement de la Synchronisation Labiale

Contrôle de la Protrusion de la Langue

Dans le modèle de synchronisation labiale standard, vous pouvez remarquer un mouvement excessif de la langue vers l'avant pendant certains phonèmes. Pour contrôler la protrusion de la langue :

  1. Après votre nœud de mélange de synchronisation labiale, ajoutez un nœud Modify Curve
  2. Faites un clic droit sur le nœud Modify Curve et sélectionnez Add Curve Pin
  3. Ajoutez une broche de courbe avec le nom CTRL_expressions_tongueOut
  4. Définissez la propriété Apply Mode du nœud sur Scale
  5. Ajustez le paramètre Value pour contrôler l'extension de la langue (ex : 0.8 pour réduire la protrusion de 20%)

Contrôle de l'Ouverture de la Mâchoire

La synchronisation labiale réaliste peut produire des mouvements de mâchoire excessivement réactifs selon votre contenu audio et vos exigences visuelles. Pour ajuster l'intensité de l'ouverture de la mâchoire :

  1. Après votre nœud de mélange de synchronisation labiale, ajoutez un nœud Modify Curve
  2. Faites un clic droit sur le nœud Modify Curve et sélectionnez Add Curve Pin
  3. Ajoutez une broche de courbe avec le nom CTRL_expressions_jawOpen
  4. Définissez la propriété Apply Mode du nœud sur Scale
  5. Ajustez le paramètre Value pour contrôler l'amplitude d'ouverture de la mâchoire (ex : 0.9 pour réduire le mouvement de la mâchoire de 10%)

Ajustement Fin Spécifique à l'Humeur

Pour les modèles avec humeur, vous pouvez ajuster finement des expressions émotionnelles spécifiques :

Contrôle des Sourcils :

  • CTRL_expressions_browRaiseInL / CTRL_expressions_browRaiseInR - Sourcil intérieur levé
  • CTRL_expressions_browRaiseOuterL / CTRL_expressions_browRaiseOuterR - Sourcil extérieur levé
  • CTRL_expressions_browDownL / CTRL_expressions_browDownR - Sourcil abaissé

Contrôle de l'Expression des Yeux :

  • CTRL_expressions_eyeSquintInnerL / CTRL_expressions_eyeSquintInnerR - Plissement des yeux
  • CTRL_expressions_eyeCheekRaiseL / CTRL_expressions_eyeCheekRaiseR - Soulèvement de la joue

Comparaison et Sélection des Modèles

Choix Entre les Modèles

Lorsque vous décidez quel modèle de synchronisation labiale utiliser pour votre projet, considérez ces facteurs :

ConsidérationStandard ModelRealistic ModelMood-Enabled Realistic Model
Compatibilité des PersonnagesMetaHumans et tous les types de personnages personnalisésPersonnages MetaHumans (et ARKit)Personnages MetaHumans (et ARKit)
Qualité VisuelleBonne synchronisation labiale avec performance efficaceRéalisme amélioré avec des mouvements de bouche plus naturelsRéalisme amélioré avec expressions émotionnelles
PerformanceOptimisé pour toutes les plateformes y compris mobile/VRExigences en ressources plus élevéesExigences en ressources plus élevées
Fonctionnalités14 visèmes, détection de rire81 contrôles faciaux, 3 niveaux d'optimisation81 contrôles faciaux, 12 humeurs, sortie configurable
Support des PlateformesWindows, Android, QuestWindows, Mac, iOS, Linux, Android, QuestWindows, Mac, iOS, Linux, Android, Quest
Cas d'UtilisationApplications générales, jeux, VR/AR, mobileExpériences cinématiques, interactions en gros planNarration émotionnelle, interaction avancée des personnages

Compatibilité des Versions du Moteur

Problème de Compatibilité UE 5.2

Si vous utilisez Unreal Engine 5.2, les Realistic Models peuvent ne pas fonctionner correctement en raison d'un bug dans la bibliothèque de rééchantillonnage d'UE. Pour les utilisateurs d'UE 5.2 qui ont besoin d'une fonctionnalité de synchronisation labiale fiable, veuillez utiliser le Standard Model à la place.

Ce problème est spécifique à UE 5.2 et n'affecte pas les autres versions du moteur.

Recommandations de Performance

  • Pour la plupart des projets, le Standard Model offre un excellent équilibre qualité/performance
  • Utilisez le Realistic Model lorsque vous avez besoin de la plus haute fidélité visuelle pour les personnages MetaHuman
  • Utilisez le Mood-Enabled Realistic Model lorsque le contrôle de l'expression émotionnelle est important pour votre application
  • Considérez les capacités de performance de votre plateforme cible lors du choix entre les modèles
  • Testez différents niveaux d'optimisation pour trouver le meilleur équilibre pour votre cas d'utilisation spécifique

Compatibilité TTS

Type de ModèleSupport TTS Local (via Runtime Text To Speech)Support TTS ExterneNotes
Standard Model✅ Support complet✅ Support completCompatible avec toutes les options TTS
Realistic Model❌ Support limité✅ Support completConflits ONNX runtime avec TTS local
Mood-Enabled Realistic Model✅ Support complet✅ Support completCompatible avec toutes les options TTS

Dépannage

Problèmes Courants

Recréation du Générateur pour les Realistic Models : Pour un fonctionnement fiable et cohérent avec les Realistic Models, il est recommandé de recréer le générateur chaque fois que vous souhaitez alimenter de nouvelles données audio après une période d'inactivité. Cela est dû au comportement d'ONNX runtime qui peut faire cesser le fonctionnement de la synchronisation labiale lors de la réutilisation de générateurs après des périodes de silence.

Par exemple, vous pourriez recréer le générateur de synchronisation labiale à chaque début de lecture, comme chaque fois que vous appelez Play Sound 2D ou utilisez toute autre méthode pour démarrer la lecture d'une onde sonore et la synchronisation labiale :

Recreate Lip Sync Generator On Play Sound

Compatibilité TTS Local : Le TTS local fourni par le plugin Runtime Text To Speech n'est actuellement pas supporté avec le modèle réaliste régulier en raison de conflits ONNX runtime. Cependant, il est entièrement compatible avec le Standard model et le Mood-Enabled Realistic model. Utilisez des services TTS externes si vous avez spécifiquement besoin du modèle réaliste régulier avec une fonctionnalité TTS.

Réactivité Dégradée de la Synchronisation Labiale : Si vous constatez que la synchronisation labiale devient moins réactive au fil du temps lors de l'utilisation de Streaming Sound Wave ou Capturable Sound Wave, cela peut être causé par une accumulation de mémoire. Par défaut, la mémoire est réallouée chaque fois que de nouveaux audio sont ajoutés. Pour éviter ce problème, appelez la fonction ReleaseMemory périodiquement pour libérer la mémoire accumulée, par exemple toutes les 30 secondes environ.

Optimisation des Performances :

  • Ajustez la Processing Chunk Size pour les modèles réalistes en fonction de vos exigences de performance
  • Utilisez des nombres de threads appropriés pour votre matériel cible
  • Envisagez d'utiliser le type de sortie Mouth Only pour les modèles avec humeur lorsque l'animation faciale complète n'est pas nécessaire