Passa al contenuto principale

Guida all'Installazione

Questa guida ti accompagna attraverso il processo di installazione di base per Runtime MetaHuman Lip Sync con i tuoi personaggi MetaHuman.

Nota: Runtime MetaHuman Lip Sync funziona sia con MetaHuman che con personaggi personalizzati. Per istruzioni dettagliate sulla configurazione di personaggi personalizzati, consulta la Guida all'Installazione per Personaggi Personalizzati.

Prerequisiti

Prima di iniziare, assicurati che:

  1. Requisiti del Plugin MetaHuman:

    • UE 5.5 e precedenti: Abilita il plugin MetaHuman nel tuo progetto
    • UE 5.6 e successivi: Abilita il plugin MetaHuman Core Tech nel tuo progetto
    Plugin MetaHuman Aggiuntivi

    A seconda di come crei i tuoi personaggi MetaHuman, potresti aver bisogno di plugin aggiuntivi. Ad esempio, se intendi creare un MetaHuman con il nuovo sistema MetaHuman Creator introdotto in UE 5.6, dovrai anche abilitare il plugin MetaHuman Creator. Per maggiori informazioni su questo sistema, consulta la documentazione di MetaHuman Creator.

  2. Hai almeno un personaggio MetaHuman scaricato e disponibile nel tuo progetto

  3. Il plugin Runtime MetaHuman Lip Sync è installato

Plugin di Estensione del Modello Standard

Se prevedi di utilizzare il Modello Standard, dovrai installare il plugin di estensione:

  1. Scarica il plugin Standard Lip Sync Extension da qui
  2. Estrai la cartella dall'archivio scaricato nella cartella Plugins del tuo progetto (crea questa cartella se non esiste)
  3. Assicurati che il tuo progetto sia configurato come progetto C++ (anche se non hai codice C++)
  4. Ricompila il tuo progetto
note
  • Questa estensione è richiesta solo se vuoi utilizzare il Modello Standard. Se hai bisogno solo dei Modelli Realistici, puoi saltare questo passaggio.
  • Per maggiori informazioni su come compilare manualmente i plugin, consulta il tutorial sulla Compilazione dei Plugin

Plugin Aggiuntivi

  • Se prevedi di utilizzare la cattura audio (ad esempio, input da microfono), installa il plugin Runtime Audio Importer.
  • Se prevedi di utilizzare la funzionalità sintesi vocale:

Configurazione dell'Animation Blueprint

Passo 1: Individua e modifica l'Animation Blueprint del viso

Devi modificare un Animation Blueprint che verrà utilizzato per le animazioni facciali del tuo personaggio MetaHuman. L'Animation Blueprint del viso predefinito per MetaHuman si trova in:

Content/MetaHumans/Common/Face/Face_AnimBP

Blueprint dell'Animazione del Viso

Hai diverse opzioni per implementare la funzionalità di lip sync:

Apri direttamente il Face_AnimBP predefinito e apporta le tue modifiche. Qualsiasi cambiamento influenzerà tutti i personaggi MetaHuman che utilizzano questo Animation Blueprint.

Nota: Questo approccio è conveniente ma avrà un impatto su tutti i personaggi che utilizzano l'Animation Blueprint predefinito.

Passo 2: Configurazione del Grafico degli Eventi

Apri la tua Face Animation Blueprint e passa al Event Graph. Dovrai creare un generatore che elaborerà i dati audio e genererà l'animazione di lip sync.

  1. Aggiungi il nodo Event Blueprint Begin Play se non esiste già
  2. Aggiungi il nodo Create Runtime Viseme Generator e collegalo all'evento Begin Play
  3. Salva l'output come una variabile (es. "VisemeGenerator") per l'uso in altre parti del grafico

Creazione del Runtime Viseme Generator

Per le opzioni di configurazione dettagliate, vedi la sezione Configurazione del Modello Standard.

Passo 3: Configurazione del Grafico delle Animazioni

Dopo aver configurato l'Event Graph, passa all'Anim Graph per collegare il generatore all'animazione del personaggio:

  1. Individua la pose che contiene il volto del MetaHuman (tipicamente da Use cached pose 'Body Pose')
  2. Aggiungi il nodo Blend Runtime MetaHuman Lip Sync
  3. Collega la pose al Source Pose del nodo Blend Runtime MetaHuman Lip Sync
  4. Collega la tua variabile VisemeGenerator al pin Viseme Generator
  5. Collega l'output del nodo Blend Runtime MetaHuman Lip Sync al pin Result dell'Output Pose

Blend Runtime MetaHuman Lip Sync

Prossimi Passi

Ora che hai completato la configurazione di base dell'Animation Blueprint, dovrai configurare l'elaborazione dell'input audio per fornire dati audio al tuo generatore di lip sync.

Prosegui con la Guida all'Elaborazione Audio per imparare come impostare diversi metodi di input audio, inclusa la cattura del microfono, il text-to-speech e l'elaborazione di file audio.

Per le opzioni di configurazione avanzate e la messa a punto, vedi la Guida alla Configurazione.