Aller au contenu principal

Guide d'Installation

Ce guide vous accompagne dans le processus d'installation de base de Runtime MetaHuman Lip Sync avec vos personnages MetaHuman.

Note : Runtime MetaHuman Lip Sync fonctionne avec les MetaHuman et les personnages personnalisés. Pour des instructions détaillées sur la configuration des personnages personnalisés, consultez le Guide de Configuration des Personnages Personnalisés.

Prérequis

Avant de commencer, assurez-vous :

  1. Prérequis du plugin MetaHuman :

    • UE 5.5 et versions antérieures : Activez le plugin MetaHuman dans votre projet
    • UE 5.6 et versions ultérieures : Activez le plugin MetaHuman Core Tech dans votre projet
    Plugins MetaHuman Supplémentaires

    Selon la façon dont vous créez vos personnages MetaHuman, vous pourriez avoir besoin de plugins supplémentaires. Par exemple, si vous prévoyez de créer un MetaHuman avec le nouveau système MetaHuman Creator introduit dans UE 5.6, vous devrez également activer le plugin MetaHuman Creator. Pour plus d'informations sur ce système, consultez la documentation MetaHuman Creator.

  2. Vous avez au moins un personnage MetaHuman téléchargé et disponible dans votre projet

  3. Le plugin Runtime MetaHuman Lip Sync est installé

Plugin d'Extension du Modèle Standard

Si vous prévoyez d'utiliser le Modèle Standard, vous devrez installer le plugin d'extension :

  1. Téléchargez le plugin Standard Lip Sync Extension depuis Google Drive
  2. Extrayez le dossier de l'archive téléchargée dans le dossier Plugins de votre projet (créez ce dossier s'il n'existe pas)
  3. Assurez-vous que votre projet est configuré comme un projet C++ (même si vous n'avez pas de code C++)
  4. Recompilez votre projet
remarque
  • Cette extension est uniquement requise si vous souhaitez utiliser le Modèle Standard. Si vous n'avez besoin que des Modèles Réalistes, vous pouvez ignorer cette étape.
  • Pour plus d'informations sur la façon de compiler manuellement des plugins, consultez le tutoriel Building Plugins

Plugins Supplémentaires

  • Si vous prévoyez d'utiliser la capture audio (par exemple, entrée microphone), installez le plugin Runtime Audio Importer.
  • Si vous prévoyez d'utiliser la fonctionnalité synthèse vocale :
    • Pour la synthèse vocale locale (Modèle Standard et Modèle Réaliste avec Émotions), installez le plugin Runtime Text To Speech.
    • Pour les fournisseurs de synthèse vocale externes (ElevenLabs, OpenAI, Google Cloud, Azure), installez le plugin Runtime AI Chatbot Integrator.

Configuration du Animation Blueprint

Étape 1 : Localiser et modifier le Blueprint d'animation faciale

Vous devez modifier un Blueprint d'Animation qui sera utilisé pour les animations faciales de votre personnage MetaHuman. Le Blueprint d'Animation facial par défaut pour MetaHuman se trouve à l'emplacement :

Content/MetaHumans/Common/Face/Face_AnimBP

Face Animation Blueprint

Vous avez plusieurs options pour implémenter la fonctionnalité de synchronisation labiale :

Ouvrez directement le Face_AnimBP par défaut et effectuez vos modifications. Tous les changements affecteront tous les personnages MetaHuman utilisant ce Animation Blueprint.

Remarque : Cette approche est pratique mais impactera tous les personnages utilisant le Animation Blueprint par défaut.

Étape 2 : Configuration du graphe d'événements

Ouvrez votre Animation Blueprint du visage et basculez vers le Event Graph. Vous devrez créer un générateur qui traitera les données audio et générera l'animation de synchronisation labiale.

  1. Ajoutez le nœud Event Blueprint Begin Play s'il n'existe pas déjà
  2. Ajoutez le nœud Create Runtime Viseme Generator et connectez-le à l'événement Begin Play
  3. Sauvegardez la sortie en tant que variable (par exemple "VisemeGenerator") pour l'utiliser dans d'autres parties du graphe

Création du Runtime Viseme Generator

Pour les options de configuration détaillées, consultez la section Configuration du modèle standard.

Étape 3 : Configuration du graphe d'animation

Après avoir configuré le graphe d'événements, passez au Anim Graph pour connecter le générateur à l'animation du personnage :

  1. Localisez la pose qui contient le visage MetaHuman (généralement à partir de Use cached pose 'Body Pose')
  2. Ajoutez le nœud Blend Runtime MetaHuman Lip Sync
  3. Connectez la pose à la Source Pose du nœud Blend Runtime MetaHuman Lip Sync
  4. Connectez votre variable VisemeGenerator à la broche Viseme Generator
  5. Connectez la sortie du nœud Blend Runtime MetaHuman Lip Sync à la broche Result de l'Output Pose

Blend Runtime MetaHuman Lip Sync

Prochaines étapes

Maintenant que la configuration de base de l'Animation Blueprint est terminée, vous devrez configurer le traitement de l'entrée audio pour alimenter votre générateur de synchronisation labiale en données audio.

Poursuivez avec le Guide de traitement audio pour apprendre à configurer différentes méthodes d'entrée audio, y compris la capture par microphone, la synthèse vocale et le traitement de fichiers audio. Pour les options de configuration avancées et le réglage fin, consultez le Guide de Configuration.