Aller au contenu principal

Guide d'installation

Ce guide vous accompagne dans le processus d'installation de base de Runtime MetaHuman Lip Sync avec vos personnages MetaHuman.

Note : Runtime MetaHuman Lip Sync fonctionne à la fois avec les MetaHuman et les personnages personnalisés. Pour des instructions détaillées sur la configuration des personnages personnalisés, consultez le Guide de configuration des personnages personnalisés.

Prérequis

Avant de commencer, assurez-vous que :

  1. Le plugin MetaHuman est activé dans votre projet (Remarque : À partir de l'UE 5.6, cette étape n'est plus nécessaire car la fonctionnalité MetaHuman est intégrée directement dans le moteur)
  2. Vous avez au moins un personnage MetaHuman téléchargé et disponible dans votre projet
  3. Le plugin Runtime MetaHuman Lip Sync est installé

Plugin d'extension du modèle standard

Si vous prévoyez d'utiliser le Modèle Standard, vous devrez installer le plugin d'extension :

  1. Téléchargez le plugin Standard Lip Sync Extension depuis Google Drive
  2. Extrayez le dossier de l'archive téléchargée dans le dossier Plugins de votre projet (créez ce dossier s'il n'existe pas)
  3. Assurez-vous que votre projet est configuré comme un projet C++ (même si vous n'avez pas de code C++)
  4. Recompilez votre projet
remarque
  • Cette extension est uniquement requise si vous souhaitez utiliser le Modèle Standard. Si vous n'avez besoin que des Modèles Réalistes, vous pouvez ignorer cette étape.
  • Pour plus d'informations sur la façon de construire des plugins manuellement, consultez le tutoriel Building Plugins

Plugins supplémentaires

  • Si vous prévoyez d'utiliser la capture audio (par exemple, entrée microphone), installez le plugin Runtime Audio Importer.
  • Si vous prévoyez d'utiliser la fonctionnalité synthèse vocale :

Configuration de l'Animation Blueprint

Étape 1 : Localiser et modifier le Blueprint d'animation du visage

Vous devez modifier un Animation Blueprint qui sera utilisé pour les animations faciales de votre personnage MetaHuman. L'Animation Blueprint facial par défaut de MetaHuman se trouve à l'emplacement :

Content/MetaHumans/Common/Face/Face_AnimBP

Face Animation Blueprint

Vous avez plusieurs options pour implémenter la fonctionnalité de synchronisation labiale :

Ouvrez directement l'asset par défaut Face_AnimBP et effectuez vos modifications. Tous les changements affecteront tous les personnages MetaHuman utilisant ce Animation Blueprint.

Note : Cette approche est pratique mais impactera tous les personnages utilisant le Animation Blueprint par défaut.

Étape 2 : Configuration du graphe d'événements

Ouvrez votre Animation Blueprint du visage et basculez vers le Event Graph. Vous devrez créer un générateur qui traitera les données audio et générera l'animation de lip sync.

  1. Ajoutez le nœud Event Blueprint Begin Play s'il n'existe pas déjà
  2. Ajoutez le nœud Create Runtime Viseme Generator et connectez-le à l'événement Begin Play
  3. Sauvegardez la sortie dans une variable (par exemple "VisemeGenerator") pour l'utiliser dans d'autres parties du graphe

Création du Runtime Viseme Generator

Pour les options de configuration détaillées, consultez la section Configuration du modèle standard.

Étape 3 : Configuration du Graphe d'Animation

Après avoir configuré le Graphe d'Événements, basculez vers le Anim Graph pour connecter le générateur à l'animation du personnage :

  1. Localisez la pose qui contient le visage MetaHuman (généralement depuis Use cached pose 'Body Pose')
  2. Ajoutez le nœud Blend Runtime MetaHuman Lip Sync
  3. Connectez la pose à la Source Pose du nœud Blend Runtime MetaHuman Lip Sync
  4. Connectez votre variable VisemeGenerator à la broche Viseme Generator
  5. Connectez la sortie du nœud Blend Runtime MetaHuman Lip Sync à la broche Result de l'Output Pose

Blend Runtime MetaHuman Lip Sync

Prochaines Étapes

Maintenant que vous avez terminé la configuration de base de l'Animation Blueprint, vous devrez configurer le traitement de l'entrée audio pour alimenter votre générateur de lip sync en données audio.

Poursuivez avec le Guide de Traitement Audio pour apprendre comment configurer différentes méthodes d'entrée audio, y compris la capture microphone, la synthèse vocale et le traitement de fichiers audio. Pour les options de configuration avancées et le réglage fin, consultez le Guide de Configuration.