Panoramica
Runtime MetaHuman Lip Sync è un plugin che abilita la sincronizzazione labiale in tempo reale, offline e cross-platform sia per personaggi MetaHuman che personalizzati. Ti permette di animare le labbra di un personaggio in risposta a un input audio proveniente da varie fonti, tra cui:
- Input del microfono tramite l'onda sonora acquisibile di Runtime Audio Importer
- Voce sintetizzata da Runtime Text To Speech o Runtime AI Chatbot Integrator
- Qualsiasi dato audio in formato PCM float (un array di campioni in virgola mobile)
Il plugin genera internamente i visemi (rappresentazioni visive dei fonemi) basandosi sull'input audio. Poiché lavora direttamente con i dati audio piuttosto che con il testo, il plugin supporta input multilingue inclusi, ma non limitati a, Inglese, Spagnolo, Francese, Tedesco, Giapponese, Cinese, Coreano, Russo, Italiano, Portoghese, Arabo e Hindi. Letteralmente qualsiasi lingua è supportata poiché la sincronizzazione labiale è generata dai fonemi audio piuttosto che da un'elaborazione del testo specifica per lingua.
Il Modello Standard produce 14 visemi ed esegue l'animazione della sincronizzazione labiale utilizzando un asset di pose predefinito. Al contrario, i Modelli Realistici (esclusivi per personaggi MetaHuman) generano 81 variazioni dei controlli facciali senza fare affidamento su un asset di pose predefinito, risultando in animazioni facciali significativamente più realistiche.
Compatibilità dei Personaggi
Nonostante il nome, Runtime MetaHuman Lip Sync funziona con una vasta gamma di personaggi oltre ai soli MetaHuman:
Sistemi di Personaggi Commerciali Popolari
- Personaggi Daz Genesis 8/9
- Personaggi Reallusion Character Creator 3/4 (CC3/CC4)
- Personaggi Mixamo
- Avatar ReadyPlayerMe
Supporto agli Standard di Animazione
- Sistemi di blendshape basati su FACS
- Standard di blendshape Apple ARKit
- Set di fonemi Preston Blair
- Sistemi di fonemi 3ds Max
- Qualsiasi personaggio con morph target personalizzati per le espressioni facciali
Per istruzioni dettagliate sull'uso del plugin con personaggi non MetaHuman, consulta la Guida alla Configurazione per Personaggi Personalizzati.
Anteprima Animazione
Guarda queste brevi animazioni per vedere la qualità della sincronizzazione labiale prodotta dal plugin su diversi tipi di personaggi e modelli:




Caratteristiche Principali
- Lip sync in tempo reale dall'input del microfono
- Supporto per l'elaborazione audio offline
- Compatibilità multipiattaforma con supporto specifico per piattaforma del modello
- Supporto per sistemi di personaggi multipli e standard di animazione
- Mappatura viseme flessibile per personaggi personalizzati
- Supporto linguistico universale - funziona con qualsiasi lingua parlata tramite analisi audio
- Animazione facciale consapevole dell'umore per una maggiore espressività
- Tipi di output configurabili (controlli per l'intero volto o solo per la bocca)
Modelli di Lip Sync
Il plugin offre diversi modelli di lip sync per soddisfare le diverse esigenze del progetto:
- Modello Standard
- Modello Realistico
- Modello Realistico con Umore
Il modello di lip sync standard offre prestazioni efficienti e multipiattaforma con un'ampia compatibilità dei personaggi:
- Funziona con MetaHumans e tutti i tipi di personaggi personalizzati
- Ottimizzato per le prestazioni in tempo reale
- Requisiti di risorse inferiori
- Piena compatibilità con TTS locale (plugin Runtime Text To Speech)
- Supporto Piattaforme: Windows, Android, piattaforme basate su Android (incluso Meta Quest)
- Tre livelli di ottimizzazione: Originale, Semi-Ottimizzato e Altamente Ottimizzato
Per utilizzare il Modello Standard, è necessario installare un ulteriore plugin di estensione. Consulta la sezione Prerequisiti per le istruzioni di installazione.
Il modello di lip sync realistico offre una fedeltà visiva migliorata specificamente per i personaggi MetaHuman:
- Esclusivo per MetaHuman con animazione facciale avanzata (81 controlli facciali)
- Qualità visiva superiore con movimenti della bocca più naturali
- Requisiti di prestazione leggermente superiori
- Supporto TTS locale limitato (si consigliano servizi TTS esterni)
- Ideale per esperienze cinematografiche e interazioni ravvicinate con i personaggi
- Supporto Piattaforme: Windows, Mac, iOS, Linux
- Tre livelli di ottimizzazione: Originale, Semi-Ottimizzato e Altamente Ottimizzato
Il Modello Realistico è incluso nel plugin principale e non richiede estensioni aggiuntive per l'uso.
Il modello realistico con supporto per l'umore fornisce un'animazione facciale consapevole delle emozioni per i personaggi MetaHuman:
- Esclusivo per MetaHuman con animazione facciale reattiva all'umore
- 12 diversi tipi di umore (Neutro, Felice, Triste, Sicuro, ecc.)
- Intensità dell'umore configurabile (da 0.0 a 1.0)
- Tempistica di anticipo regolabile per una migliore sincronizzazione (da 20ms a 200ms)
- Tipi di output selezionabili: controlli per l'intero volto o solo per la bocca
- Elaborazione audio in streaming per applicazioni in tempo reale
- Supporto Piattaforme: Windows, Mac, iOS, Linux
Il * Modello Abilitato all'Umore* include funzionalità avanzate come la temporizzazione configurabile dell'anticipo e l'output di controllo selettivo, rendendolo ideale per applicazioni che richiedono il controllo dell'espressione emotiva.
Puoi scegliere il modello appropriato in base ai requisiti del tuo progetto per prestazioni, compatibilità del personaggio, qualità visiva, piattaforma target e necessità di funzionalità.
Sebbene tutti i modelli supportino vari metodi di input audio, il modello Realistico regolare ha una compatibilità limitata con il TTS locale a causa di conflitti del runtime ONNX. Il modello Realistico Abilitato all'Umore, tuttavia, è completamente compatibile con il TTS locale. Per la funzionalità di sintesi vocale:
- Modello Standard: Compatibile con tutte le opzioni TTS (locale ed esterne)
- Modello Realistico: Servizi TTS esterni consigliati (OpenAI, ElevenLabs)
- Modello Realistico Abilitato all'Umore: Compatibile con tutte le opzioni TTS (locale ed esterne)
Come Funziona
Il plugin elabora l'input audio nel modo seguente:
- I dati audio vengono ricevuti in formato PCM float con canali e frequenza di campionamento specificati
- Il plugin elabora l'audio per generare dati di controllo facciale o visemi a seconda del modello
- Per i modelli abilitati all'umore, il contesto emotivo viene applicato all'animazione facciale
- I dati di animazione guidano i movimenti facciali del personaggio in tempo reale
Guida Rapida
Ecco una configurazione di base per abilitare la sincronizzazione labiale sul tuo personaggio:
- Per i personaggi MetaHuman, segui la Guida all'Installazione
- Per i personaggi personalizzati, segui la Guida all'Installazione per Personaggi Personalizzati
- Scegli e configura il tuo modello di sincronizzazione labiale preferito
- Imposta l'elaborazione dell'input audio nel tuo Blueprint
- Collega il nodo di sincronizzazione labiale appropriato nell'Animation Blueprint
- Riproduci l'audio e guarda il tuo personaggio parlare con emozione!
Risorse Aggiuntive
📦 Download e Link
- Scaricalo su Fab
- Sito web del prodotto
- Scarica Demo (Windows)
- Scarica i file sorgente della Demo (UE 5.6) – Richiede questo plugin + Runtime Audio Importer, opzionale: Text To Speech / AI Chatbot. Il modello standard richiede una piccola estensione del plugin (vedi qui)
🎥 Tutorial Video
Demo in Evidenza:
Tutorials per Modello Realistico (Alta Qualità):
- Lip Sync di Alta Qualità con Controllo dell'Umore e TTS Locale ⭐ NUOVO
- Lip Sync di Alta Qualità con ElevenLabs e OpenAI TTS
- Lip Sync dal Microfono in Diretta di Alta Qualità
Tutorials per Modello Standard:
- Lip Sync dal Microfono in Diretta Standard
- Lip Sync Standard con Sintesi Vocale Locale
- Lip Sync Standard con ElevenLabs e OpenAI TTS
Configurazione Generale:
💬 Supporto
- Server di supporto Discord
- Sviluppo Personalizzato: [email protected] (soluzioni su misura per team e organizzazioni)