Guida all'Installazione
Questa guida ti accompagna attraverso il processo di installazione di base per Runtime MetaHuman Lip Sync con i tuoi personaggi MetaHuman.
Nota: Runtime MetaHuman Lip Sync funziona sia con MetaHuman che con personaggi personalizzati. Per istruzioni dettagliate sulla configurazione dei personaggi personalizzati, consulta la Guida alla Configurazione per Personaggi Personalizzati.
Prerequisiti
Prima di iniziare, assicurati che:
- Il plugin MetaHuman sia abilitato nel tuo progetto (Nota: A partire da UE 5.6, questo passaggio non è più necessario poiché la funzionalità MetaHuman è integrata direttamente nel motore)
- Tu abbia almeno un personaggio MetaHuman scaricato e disponibile nel tuo progetto
- Il plugin Runtime MetaHuman Lip Sync sia installato
Plugin di Estensione del Modello Standard
Se prevedi di utilizzare il Modello Standard, avrai bisogno di installare il plugin di estensione:
- Scarica il plugin Standard Lip Sync Extension da Google Drive
- Estrai la cartella dall'archivio scaricato nella cartella
Plugins
del tuo progetto (crea questa cartella se non esiste) - Assicurati che il tuo progetto sia configurato come un progetto C++ (anche se non hai alcun codice C++)
- Ricompila il tuo progetto
- Questa estensione è richiesta solo se vuoi utilizzare il Modello Standard. Se hai bisogno solo dei Modelli Realistici, puoi saltare questo passaggio.
- Per maggiori informazioni su come compilare manualmente i plugin, consulta il tutorial sulla Compilazione dei Plugin
Plugin Aggiuntivi
- Se prevedi di utilizzare la cattura audio (ad esempio, input del microfono), installa il plugin Runtime Audio Importer.
- Se prevedi di utilizzare la funzionalità text-to-speech:
- Per TTS locale (solo Modello Standard), installa il plugin Runtime Text To Speech.
- Per provider TTS esterni (ElevenLabs, OpenAI), installa il plugin Runtime AI Chatbot Integrator.
Configurazione dell'Animation Blueprint
Passo 1: Individua e modifica l'Animation Blueprint del viso
- UE 5.5 e Precedenti (o MetaHuman Legacy in UE 5.6+)
- Personaggi MetaHuman Creator UE 5.6+
Devi modificare un Animation Blueprint che verrà utilizzato per le animazioni facciali del tuo personaggio MetaHuman. L'Animation Blueprint facciale predefinito di MetaHuman si trova in:
Content/MetaHumans/Common/Face/Face_AnimBP
Hai diverse opzioni per implementare la funzionalità di lip sync:
- Modifica Asset Predefinito (Opzione Più Semplice)
- Crea un Duplicato
- Usa un Animation Blueprint Personalizzato
Apri direttamente il Face_AnimBP
predefinito e apporta le tue modifiche. Qualsiasi modifica influenzerà tutti i personaggi MetaHuman che utilizzano questo Animation Blueprint.
Nota: Questo approccio è conveniente ma avrà un impatto su tutti i personaggi che utilizzano l'Animation Blueprint predefinito.
- Duplica
Face_AnimBP
e dagli un nome descrittivo - Individua la classe Blueprint del tuo personaggio (ad esempio, per il personaggio "Bryan", si troverebbe in
Content/MetaHumans/Bryan/BP_Bryan
) - Apri il Blueprint del personaggio e trova il componente Face
- Cambia la proprietà Anim Class con il tuo Animation Blueprint appena duplicato
Nota: Questo approccio ti consente di personalizzare il lip sync per personaggi specifici lasciando gli altri invariati.
Puoi implementare la fusione del lip sync in qualsiasi Animation Blueprint che abbia accesso alle ossa facciali richieste:
- Crea o utilizza un Animation Blueprint personalizzato esistente
- Assicurati che il tuo Animation Blueprint funzioni con uno scheletro che contenga le stesse ossa facciali dello
Face_Archetype_Skeleton
predefinito di MetaHuman
Nota: Questo approccio ti offre la massima flessibilità per l'integrazione con sistemi di animazione personalizzati.
A partire da UE 5.6, è stato introdotto il nuovo sistema MetaHuman Creator. Per questi personaggi, il plugin fornisce un Animation Blueprint per il viso situato in:
Content/LipSyncData/LipSync_Face_AnimBP
Questa Animation Blueprint si trova nella cartella dei contenuti del plugin e verrà sovrascritta ad ogni aggiornamento del plugin. Per evitare di perdere le tue personalizzazioni:
- Copia questa risorsa nella cartella Content del tuo progetto (ad esempio, in
YourProject/Content/MetaHumans/LipSync_Face_AnimBP
) - Usa la tua versione copiata nella configurazione del personaggio
- Apporta tutte le tue modifiche alla versione copiata
Utilizzo della Face Animation Blueprint del Plugin:
- Individua la classe Blueprint del tuo personaggio di MetaHuman Creator
- Apri la Blueprint del personaggio e trova il componente Face
- Cambia la proprietà Anim Class con la
LipSync_Face_AnimBP
del plugin - Prosegui con i passaggi successivi per configurare la funzionalità Runtime MetaHuman Lip Sync
Passaggio 2: Configurazione del Grafico degli Eventi
Apri la tua Face Animation Blueprint e passa al Event Graph
. Dovrai creare un generatore che elaborerà i dati audio e genererà l'animazione di lip sync.
- Modello Standard
- Modello Realistico
- Modello Realistico con Umore
- Aggiungi il nodo
Event Blueprint Begin Play
se non esiste già - Aggiungi il nodo
Create Runtime Viseme Generator
e collegalo all'evento Begin Play - Salva l'output come una variabile (ad es. "VisemeGenerator") per l'uso in altre parti del grafico
Per le opzioni di configurazione dettagliate, consulta la sezione Configurazione del Modello Standard.
- Aggiungi il nodo
Event Blueprint Begin Play
se non esiste già - Aggiungi il nodo
Create Realistic MetaHuman Lip Sync Generator
e collegalo all'evento Begin Play - Salva l'output come una variabile (ad es. "RealisticMetaHumanLipSyncGenerator") per l'uso in altre parti del grafico
- (Opzionale) Configura le impostazioni del generatore utilizzando il parametro Configuration
Per le opzioni di configurazione dettagliate inclusi i tipi di modello, le impostazioni delle prestazioni e i parametri di elaborazione, consulta la sezione Configurazione del Modello Realistico.
- Aggiungi il nodo
Event Blueprint Begin Play
se non esiste già - Aggiungi il nodo
Create Realistic MetaHuman Lip Sync With Mood Generator
e collegalo all'evento Begin Play - Salva l'output come una variabile (ad es. "MoodMetaHumanLipSyncGenerator") per l'uso in altre parti del grafico
- (Opzionale) Configura le impostazioni del generatore utilizzando il parametro Configuration
Per la configurazione dettagliata dell'umore inclusa tipi di umore, impostazioni di intensità, tempistica di anticipo e selezione del tipo di output, consulta la sezione Configurazione del modello abilitato all'umore.
Step 3: Configurazione del grafico delle animazioni
Dopo aver configurato il Grafico degli Eventi, passa al Anim Graph
per collegare il generatore all'animazione del personaggio:
- Modello Standard
- Modello Realistico
- Modello Realistico Abilitato all'Umore
- Individua la posa che contiene il volto del MetaHuman (tipicamente da
Use cached pose 'Body Pose'
) - Aggiungi il nodo
Blend Runtime MetaHuman Lip Sync
- Collega la posa al
Source Pose
del nodoBlend Runtime MetaHuman Lip Sync
- Collega la tua variabile
VisemeGenerator
al pinViseme Generator
- Collega l'output del nodo
Blend Runtime MetaHuman Lip Sync
al pinResult
dell'Output Pose
- Individua la posa che contiene il volto del MetaHuman (tipicamente da
Use cached pose 'Body Pose'
) - Aggiungi il nodo
Blend Realistic MetaHuman Lip Sync
- Collega la posa al
Source Pose
del nodoBlend Realistic MetaHuman Lip Sync
- Collega la tua variabile
RealisticMetaHumanLipSyncGenerator
al pinLip Sync Generator
- Collega l'output del nodo
Blend Realistic MetaHuman Lip Sync
al pinResult
dell'Output Pose
- Individua la posa che contiene il volto del MetaHuman (tipicamente da
Use cached pose 'Body Pose'
) - Aggiungi il nodo
Blend Realistic MetaHuman Lip Sync
(lo stesso nodo del modello realistico regolare) - Collega la posa al
Source Pose
del nodoBlend Realistic MetaHuman Lip Sync
- Collega la tua variabile
MoodMetaHumanLipSyncGenerator
al pinLip Sync Generator
- Collega l'output del nodo
Blend Realistic MetaHuman Lip Sync
al pinResult
dell'Output Pose
Nota: Il modello abilitato all'umore utilizza lo stesso nodo di Animation Blueprint del modello realistico regolare. La funzionalità dell'umore è gestita internamente dal generatore.
Prossimi Passi
Ora che hai completato la configurazione di base dell'Animation Blueprint, dovrai configurare l'elaborazione dell'input audio per fornire dati audio al tuo generatore di lip sync.
Continua con la Guida all'Elaborazione Audio per imparare come impostare diversi metodi di input audio, inclusa la cattura del microfono, il text-to-speech e l'elaborazione di file audio. Per le opzioni di configurazione avanzate e la messa a punto, consulta la Guida alla Configurazione.