Visão Geral
Runtime MetaHuman Lip Sync é um plugin que permite lip sync em tempo real, offline e multiplataforma para personagens MetaHuman e personalizados. Ele permite que você anime os lábios de um personagem em resposta a um áudio de entrada de várias fontes, incluindo:
- Entrada de microfone via onda sonora capturável do Runtime Audio Importer
- Fala sintetizada do Runtime Text To Speech ou do Runtime AI Chatbot Integrator
- Qualquer dado de áudio em formato PCM float (um array de amostras de ponto flutuante)
O plugin gera internamente visemas (representações visuais de fonemas) com base no áudio de entrada. Como ele funciona diretamente com dados de áudio em vez de texto, o plugin suporta entrada multilíngue, incluindo, mas não se limitando a, inglês, espanhol, francês, alemão, japonês, chinês, coreano, russo, italiano, português, árabe e hindi. Literalmente, qualquer idioma é suportado, pois o lip sync é gerado a partir de fonemas de áudio, e não de processamento de texto específico de um idioma.
O Modelo Padrão produz 14 visemas e executa a animação de lip sync usando um ativo de pose predefinido. Em contraste, os Modelos Realistas (exclusivos para personagens MetaHuman) geram 81 alterações de controle facial sem depender de um ativo de pose predefinido, resultando em animações faciais significativamente mais realistas.
Compatibilidade de Personagens
Apesar do nome, o Runtime MetaHuman Lip Sync funciona com uma ampla gama de personagens além dos MetaHumans:
Sistemas de Personagens Comerciais Populares
- Personagens Daz Genesis 8/9
- Personagens Reallusion Character Creator 3/4 (CC3/CC4)
- Personagens Mixamo
- Avatares ReadyPlayerMe
Suporte a Padrões de Animação
- Sistemas de blendshape baseados em FACS
- Padrão de blendshape Apple ARKit
- Conjuntos de fonemas Preston Blair
- Sistemas de fonemas 3ds Max
- Qualquer personagem com morph targets personalizados para expressões faciais
Para instruções detalhadas sobre como usar o plugin com personagens não-MetaHuman, consulte o Guia de Configuração de Personagem Personalizado.
Prévia da Animação
Confira estas animações curtas para ver a qualidade da animação de lip sync produzida pelo plugin em diferentes tipos de personagens e modelos:




Principais Recursos
- Sincronização labial em tempo real a partir de entrada de microfone
- Suporte a processamento de áudio offline
- Compatibilidade multiplataforma com suporte específico por plataforma para modelos
- Suporte para múltiplos sistemas de personagens e padrões de animação
- Mapeamento flexível de visemas para personagens personalizados
- Suporte universal de idiomas - funciona com qualquer idioma falado através de análise de áudio
- Animação facial consciente do humor para maior expressividade
- Tipos de saída configuráveis (controles de rosto completo ou apenas boca)
Modelos de Sincronização Labial
O plugin oferece múltiplos modelos de sincronização labial para atender diferentes necessidades do projeto:
- Modelo Padrão
- Modelo Realista
- Modelo Realista com Humor
O modelo de sincronização labial padrão oferece desempenho eficiente e multiplataforma com ampla compatibilidade de personagens:
- Funciona com MetaHumans e todos os tipos de personagens personalizados
- Otimizado para desempenho em tempo real
- Requisitos de recursos mais baixos
- Compatibilidade total com TTS local (plugin Runtime Text To Speech)
- Suporte de Plataforma: Windows, Android, plataformas baseadas em Android (incluindo Meta Quest)
- Três níveis de otimização: Original, Semi-Otimizado e Altamente Otimizado
Para usar o Modelo Padrão, você precisa instalar um plugin de extensão adicional. Veja a seção Pré-requisitos para instruções de instalação.
O modelo de sincronização labial realista oferece fidelidade visual aprimorada especificamente para personagens MetaHuman:
- Exclusivo para MetaHuman com animação facial avançada (81 controles faciais)
- Qualidade visual superior com movimentos de boca mais naturais
- Requisitos de desempenho ligeiramente mais altos
- Suporte limitado a TTS local (serviços de TTS externos recomendados)
- Ideal para experiências cinemáticas e interações de personagem em close-up
- Suporte de Plataforma: Windows, Mac, iOS, Linux
- Três níveis de otimização: Original, Semi-Otimizado e Altamente Otimizado
O Modelo Realista está incluído no plugin principal e não requer extensões adicionais para uso.
O modelo realista com humor fornece animação facial consciente de emoções para personagens MetaHuman:
- Exclusivo para MetaHuman com animação facial responsiva ao humor
- 12 tipos diferentes de humor (Neutro, Feliz, Triste, Confiante, etc.)
- Intensidade de humor configurável (0.0 a 1.0)
- Temporização de antecipação ajustável para melhor sincronização (20ms a 200ms)
- Tipos de saída selecionáveis: controles de Rosto Completo ou Apenas Boca
- Processamento de áudio em streaming para aplicações em tempo real
- Suporte de Plataforma: Windows, Mac, iOS, Linux
O * Modelo com Habilitação de Humor* inclui recursos avançados como temporização de antecipação configurável e controle seletivo de saída, tornando-o ideal para aplicações que requerem controle de expressão emocional.
Você pode escolher o modelo apropriado com base nos requisitos do seu projeto para desempenho, compatibilidade de personagem, qualidade visual, plataforma de destino e necessidades de recursos.
Embora todos os modelos suportem vários métodos de entrada de áudio, o modelo Realista regular tem compatibilidade limitada com TTS local devido a conflitos de runtime ONNX. O modelo Realista com Habilitação de Humor, no entanto, é totalmente compatível com TTS local. Para funcionalidade de text-to-speech:
- Modelo Padrão: Compatível com todas as opções TTS (local e externa)
- Modelo Realista: Serviços TTS externos recomendados (OpenAI, ElevenLabs)
- Modelo Realista com Habilitação de Humor: Compatível com todas as opções TTS (local e externa)
Como Funciona
O plugin processa a entrada de áudio da seguinte maneira:
- Os dados de áudio são recebidos no formato PCM float com canais e taxa de amostragem especificados
- O plugin processa o áudio para gerar dados de controle facial ou visemas dependendo do modelo
- Para modelos com habilitação de humor, o contexto emocional é aplicado à animação facial
- Os dados de animação conduzem os movimentos faciais do personagem em tempo real
Início Rápido
Aqui está uma configuração básica para habilitar a sincronização labial no seu personagem:
- Para personagens MetaHuman, siga o Guia de Configuração
- Para personagens personalizados, siga o Guia de Configuração de Personagem Personalizado
- Escolha e configure seu modelo de sincronização labial preferido
- Configure o processamento de entrada de áudio no seu Blueprint
- Conecte o nó de sincronização labial apropriado no Animation Blueprint
- Reproduza áudio e veja seu personagem falar com emoção!
Recursos Adicionais
📦 Downloads & Links
- Obtenha no Fab
- Site do produto
- Baixar Demo (Windows)
- Baixar arquivos fonte da Demo (UE 5.6) – Requer este plugin + Runtime Audio Importer, opcional: Text To Speech / AI Chatbot. O modelo padrão requer um pequeno plugin de extensão (veja aqui)
🎥 Tutoriais em Vídeo
Demonstração em Destaque:
Tutoriais de Modelo Realista (Alta Qualidade):
- Sincronização Labial de Alta Qualidade com Controle de Humor & TTS Local ⭐ NOVO
- Sincronização Labial de Alta Qualidade com ElevenLabs & OpenAI TTS
- Sincronização Labial de Alta Qualidade com Microfone ao Vivo
Tutoriais de Modelo Padrão:
- Sincronização Labial Padrão com Microfone ao Vivo
- Sincronização Labial Padrão com Texto-para-Voz Local
- Sincronização Labial Padrão com ElevenLabs & OpenAI TTS
Configuração Geral:
💬 Suporte
- Servidor de suporte no Discord
- Desenvolvimento Personalizado: [email protected] (soluções sob medida para equipes e organizações)