Pular para o conteúdo principal

Como usar o plugin com personagens personalizados

Este guia orienta você através do processo de configuração do Runtime MetaHuman Lip Sync para personagens não-MetaHuman. Este processo requer familiaridade com conceitos de animação e rigging. Se precisar de ajuda para implementar isso no seu personagem específico, você pode solicitar suporte profissional em [email protected].

Nota Importante Sobre Modelos de Lip Sync

Compatibilidade com Personagens Personalizados

Personagens personalizados são suportados apenas com o modelo Standard (Mais Rápido).

O modelo Realistic (Maior Qualidade) é projetado exclusivamente para personagens MetaHuman e não pode ser usado com personagens personalizados. Ao longo deste guia, você deve seguir as instruções do modelo Standard do guia de configuração principal quando referenciado.

Extensão do Plugin Obrigatória: Para usar o Standard Model com personagens personalizados, você deve instalar o plugin de extensão Standard Lip Sync conforme descrito na seção de Pré-requisitos do guia de configuração principal.

Esta extensão é obrigatória para todas as implementações de personagens personalizados descritas neste guia.

Pré-requisitos

Antes de começar, certifique-se de que seu personagem atenda a estes requisitos:

  • Possui um esqueleto válido
  • Contém morph targets (blend shapes) para expressões faciais
  • Idealmente possui 10+ morph targets definindo visemas (mais visemas = melhor qualidade de lip sync)

O plugin requer o mapeamento dos morph targets do seu personagem para os seguintes visemas padrão:

Sil -> Silence
PP -> Bilabial plosives (p, b, m)
FF -> Labiodental fricatives (f, v)
TH -> Dental fricatives (th)
DD -> Alveolar plosives (t, d)
KK -> Velar plosives (k, g)
CH -> Postalveolar affricates (ch, j)
SS -> Sibilants (s, z)
NN -> Nasal (n)
RR -> Approximant (r)
AA -> Open vowel (aa)
E -> Mid vowel (e)
IH -> Close front vowel (ih)
OH -> Close-mid back vowel (oh)
OU -> Close back vowel (ou)

Observação: Se o seu personagem tem um conjunto diferente de visemas (o que é provável), você não precisa de correspondências exatas para cada visema. Aproximações geralmente são suficientes—por exemplo, mapear o visema SH do seu personagem para o visema CH do plugin funcionaria efetivamente, já que são sons postalveolares próximos.

Referência de mapeamento de visemas

Aqui estão os mapeamentos entre sistemas comuns de visemas e os visemas exigidos pelo plugin:

O ARKit fornece um conjunto abrangente de blendshapes para animação facial, incluindo várias formas de boca. Veja como mapeá-los para os visemas do RuntimeMetaHumanLipSync:

Visema RuntimeMetaHumanLipSyncEquivalente ARKitObservações
SilmouthCloseA posição neutra/repouso
PPmouthPressLeft + mouthPressRightPara sons bilabiais, use ambas as formas de pressão juntas
FFlowerLipBiteLeft + lowerLipBiteRightEstes criam o contato lábio-dente para "f/v"
THtongueOutO ARKit tem controle direto da língua
DDjawOpen (leve) + tongueUpCombine abertura leve da mandíbula com posição da língua
KKmouthLeft ou mouthRight (leve)Puxão sutil no canto da boca aproxima sons velares
CHjawOpen (leve) + mouthFunnel (leve)Combine para sons postalveolares
SSmouthFrownUse um leve franzir para sibilantes
NNjawOpen (muito leve) + mouthCloseBoca quase fechada com abertura leve da mandíbula
RRmouthPucker (leve)Arredondamento sutil para sons de "r"
AAjawOpen + mouthOpenCombinado para sons vocálicos com boca bem aberta
EjawOpen (leve) + mouthSmilePosição semiaberta com leve sorriso
IHmouthSmile (leve)Leve afastamento dos lábios
OHmouthFunnelForma arredondada e aberta
OUmouthPuckerLábios firmemente arredondados

Criando um Pose Asset customizado

Siga estes passos para criar um pose asset customizado para seu personagem que será usado com o nó Blend Runtime MetaHuman Lip Sync:

1. Localize o Skeletal Mesh do seu personagem

Encontre o skeletal mesh que contém os morph targets (blend shapes) que você deseja usar para a animação de lip sync. Pode ser um mesh completo do corpo ou apenas da face, dependendo do design do seu personagem.

2. Verifique os Morph Targets disponíveis

Certifique-se que seu skeletal mesh possui morph targets apropriados que podem ser usados como visemas para animação de lip sync. A maioria dos personagens com suporte a animação facial deve ter alguns morph targets de fonemas/visemas.

Exemplo de morph targets em um personagem

3. Crie uma Reference Pose Animation

  1. Vá para Criar Ativo -> Criar Animação -> Pose de Referência
  2. Insira um nome descritivo para a sequência de animação e salve-a em um local apropriado
  3. A Sequência de Animação criada será aberta automaticamente, mostrando uma animação vazia em loop

Criando um ativo de pose de referência Nomeando o ativo de pose de referência

  1. Clique no botão Pausar para interromper a reprodução da animação para facilitar a edição

Pausando a reprodução da animação

4. Edite a Sequência de Animação

  1. Clique em Editar no Sequenciador -> Editar com FK Control Rig
  2. No diálogo Assar para Control Rig, clique no botão Assar para Control Rig sem alterar nenhuma configuração

Editando com FK Control Rig Assando para Control Rig

  1. O editor mudará para Modo Animação com a aba Sequenciador aberta
  2. Defina o Tempo Final do Intervalo de Visualização para 0016 (o que definirá automaticamente Tempo Final do Intervalo de Trabalho para 0016 também)
  3. Arraste a borda direita do controle deslizante até o final direito da janela do sequenciador

5. Prepare as Curvas de Animação

  1. Volte para o ativo de Animation Sequence e localize os morph targets na lista Curves (se não estiverem visíveis, feche e reabra o ativo de Animation Sequence)
  2. Remova quaisquer morph targets que não estejam relacionados a visemas ou movimentos da boca que você deseja usar para o Lip Sync

6. Planeje seu mapeamento de visemas

Crie um plano de mapeamento para corresponder os visemas do seu personagem ao conjunto exigido pelo plugin. Por exemplo:

Sil -> Sil
PP -> FV
FF -> FV
TH -> TH
DD -> TD
KK -> KG
CH -> CH
SS -> SZ
NN -> NL
RR -> RR
AA -> AA
E -> E
IH -> IH
OH -> O
OU -> U

Observe que é aceitável ter mapeamentos repetidos quando o conjunto de visemas do seu personagem não tem correspondências exatas para cada visema necessário.

7. Animar cada visema

  1. Para cada visema, anime as curvas de morph target relevantes de 0.0 a 1.0
  2. Inicie cada animação de visema em um frame diferente
  3. Configure curvas adicionais conforme necessário (abertura da mandíbula/boca, posição da língua, etc.) para criar formas de visemas naturais

8. Criar um Pose Asset

  1. Vá para Create Asset -> Pose Asset -> Current Animation
  2. Digite um nome descritivo para o Pose Asset e salve-o em um local apropriado
  3. O Pose Asset criado será aberto automaticamente, mostrando poses como Pose_0, Pose_1, etc., cada uma correspondendo a um visema
  4. Visualize os pesos dos visemas para garantir que funcionem conforme o esperado

Criando um pose asset Nomeando o pose asset Pose asset com visemas

9. Finalizar o Pose Asset

  1. Renomeie cada pose para corresponder aos nomes dos visemas da seção Prerequisites
  2. Exclua quaisquer poses não utilizadas

Configurando o tratamento e mixagem de áudio

Quando seu ativo de pose estiver pronto, você precisa configurar os nós de tratamento e mixagem de áudio:

  1. Localize ou crie o Animation Blueprint do seu personagem
  2. Configure o tratamento e mixagem de áudio seguindo os mesmos passos documentados no guia de configuração padrão do plugin
  3. No nó Blend Runtime MetaHuman Lip Sync, selecione seu Pose Asset personalizado em vez do ativo de pose padrão do MetaHuman

Selecionando o ativo de pose personalizado

Combinando com animações corporais

Se desejar executar lip sync junto com outras animações corporais:

  1. Siga os mesmos passos documentados no guia padrão do plugin
  2. Certifique-se de fornecer os nomes corretos dos ossos do esqueleto do pescoço do seu personagem em vez de usar os nomes dos ossos do MetaHuman

Resultados

Aqui estão exemplos de personagens personalizados usando esta configuração:

Exemplo 1: Lip sync com personagem personalizado

Exemplo 2: Lip sync com sistema de visemas diferente

Exemplo 3: Lip sync com sistema de visemas diferente

A qualidade do lip sync depende muito do personagem específico e de quão bem seus visemas estão configurados. Os exemplos acima demonstram o plugin funcionando com diferentes tipos de personagens personalizados com sistemas de visemas distintos.