Aller au contenu principal

Guide d'Installation

Ce guide vous accompagne dans le processus de configuration de base de Runtime MetaHuman Lip Sync avec vos personnages MetaHuman.

Note : Runtime MetaHuman Lip Sync fonctionne avec les MetaHuman et les personnages personnalisés. Pour des instructions détaillées sur la configuration des personnages personnalisés, consultez le Guide de Configuration des Personnages Personnalisés.

Prérequis

Avant de commencer, assurez-vous que :

  1. Exigences du plugin MetaHuman :

    • UE 5.5 et versions antérieures : Activez le plugin MetaHuman dans votre projet
    • UE 5.6 et versions ultérieures : Activez le plugin MetaHuman Core Tech dans votre projet
    Plugins MetaHuman supplémentaires

    Selon la façon dont vous créez vos personnages MetaHuman, vous pourriez avoir besoin de plugins supplémentaires. Par exemple, si vous prévoyez de créer un MetaHuman avec le nouveau système MetaHuman Creator introduit dans UE 5.6, vous devrez également activer le plugin MetaHuman Creator. Pour plus d'informations sur ce système, consultez la documentation MetaHuman Creator.

  2. Vous avez au moins un personnage MetaHuman téléchargé et disponible dans votre projet

  3. Le plugin Runtime MetaHuman Lip Sync est installé

Plugin d'Extension du Modèle Standard

Si vous prévoyez d'utiliser le Modèle Standard, vous devrez installer le plugin d'extension :

  1. Téléchargez le plugin Standard Lip Sync Extension depuis ici
  2. Extrayez le dossier de l'archive téléchargée dans le dossier Plugins de votre projet (créez ce dossier s'il n'existe pas)
  3. Assurez-vous que votre projet est configuré comme un projet C++ (même si vous n'avez pas de code C++)
  4. Recompilez votre projet
remarque
  • Cette extension est nécessaire uniquement si vous souhaitez utiliser le Modèle Standard. Si vous n'avez besoin que des Modèles Réalistes, vous pouvez ignorer cette étape.
  • Pour plus d'informations sur la construction manuelle des plugins, consultez le tutoriel Building Plugins

Plugins Supplémentaires

  • Si vous prévoyez d'utiliser la capture audio (par exemple, l'entrée microphone), installez le plugin Runtime Audio Importer.
  • Si vous prévoyez d'utiliser la fonctionnalité synthèse vocale :
    • Pour la synthèse vocale locale (Modèle Standard et Modèle Réaliste avec Émotions), installez le plugin Runtime Text To Speech.
    • Pour les fournisseurs de synthèse vocale externes (ElevenLabs, OpenAI, Google Cloud, Azure), installez le plugin Runtime AI Chatbot Integrator.

Configuration du Blueprint d'Animation

Étape 1 : Localiser et modifier le Blueprint d'animation du visage

Vous devez modifier un Blueprint d'Animation qui sera utilisé pour les animations faciales de votre personnage MetaHuman. Le Blueprint d'Animation facial par défaut des MetaHuman se trouve à l'emplacement :

Content/MetaHumans/Common/Face/Face_AnimBP

Face Animation Blueprint

Vous avez plusieurs options pour implémenter la fonctionnalité de synchronisation labiale :

Ouvrez directement l'Face_AnimBP par défaut et effectuez vos modifications. Tous les changements affecteront tous les personnages MetaHuman utilisant ce Blueprint d'animation.

Remarque : Cette approche est pratique mais impactera tous les personnages utilisant le Blueprint d'animation par défaut.

Étape 2 : Configuration du graphe d'événements

Ouvrez votre Animation Blueprint du visage et basculez vers le Event Graph. Vous devrez créer un générateur qui traitera les données audio et générera l'animation de synchronisation labiale.

  1. Ajoutez le nœud Event Blueprint Begin Play s'il n'existe pas déjà
  2. Ajoutez le nœud Create Runtime Viseme Generator et connectez-le à l'événement Begin Play
  3. Sauvegardez la sortie dans une variable (par exemple "VisemeGenerator") pour l'utiliser dans d'autres parties du graphe

Création du Runtime Viseme Generator

Pour les options de configuration détaillées, consultez la section Configuration du Modèle Standard.

Étape 3 : Configuration du graphe d'animation

Après avoir configuré le Event Graph, basculez vers le Anim Graph pour connecter le générateur à l'animation du personnage :

  1. Localisez la pose qui contient le visage MetaHuman (généralement depuis Use cached pose 'Body Pose')
  2. Ajoutez le nœud Blend Runtime MetaHuman Lip Sync
  3. Connectez la pose à l'entrée Source Pose du nœud Blend Runtime MetaHuman Lip Sync
  4. Connectez votre variable VisemeGenerator à la broche Viseme Generator
  5. Connectez la sortie du nœud Blend Runtime MetaHuman Lip Sync à la broche Result du Output Pose

Blend Runtime MetaHuman Lip Sync

Prochaines Étapes

Maintenant que la configuration de base de l'Animation Blueprint est terminée, vous devrez configurer le traitement de l'entrée audio pour alimenter votre générateur de synchronisation labiale.

Poursuivez avec le Guide de Traitement Audio pour apprendre comment configurer différentes méthodes d'entrée audio, y compris la capture microphone, la synthèse vocale et le traitement de fichiers audio.

Pour les options de configuration avancées et le réglage fin, consultez le Guide de Configuration.