Pular para o conteúdo principal

Como usar o plugin com personagens personalizados

Este guia orienta você através do processo de configuração do Runtime MetaHuman Lip Sync para personagens não-MetaHuman. Este processo requer familiaridade com conceitos de animação e rigging. Se precisar de assistência para implementar isso para seu personagem específico, você pode entrar em contato para suporte profissional em [email protected].

Nota Importante Sobre Modelos de Lip Sync

Compatibilidade com Personagens Personalizados

Personagens personalizados são suportados apenas com o modelo Standard (Mais Rápido).

O modelo Realistic (Maior Qualidade) é projetado exclusivamente para personagens MetaHuman e não pode ser usado com personagens personalizados. Ao longo deste guia, você deve seguir as instruções do modelo Standard do guia de configuração principal quando referenciado.

Plugin de Extensão Obrigatório: Para usar o Modelo Standard com personagens personalizados, você deve instalar o plugin de extensão Standard Lip Sync conforme descrito na seção de Pré-requisitos do guia de configuração principal.

Esta extensão é obrigatória para todas as implementações de personagens personalizados descritas neste guia.

Pré-requisitos

Antes de começar, certifique-se de que seu personagem atenda a estes requisitos:

  • Possui um esqueleto válido
  • Contém morph targets (blend shapes) para expressões faciais
  • Idealmente possui 10+ morph targets definindo visemas (mais visemas = melhor qualidade de lip sync)

O plugin requer mapear os morph targets do seu personagem para os seguintes visemas padrão:

Sil -> Silence
PP -> Bilabial plosives (p, b, m)
FF -> Labiodental fricatives (f, v)
TH -> Dental fricatives (th)
DD -> Alveolar plosives (t, d)
KK -> Velar plosives (k, g)
CH -> Postalveolar affricates (ch, j)
SS -> Sibilants (s, z)
NN -> Nasal (n)
RR -> Approximant (r)
AA -> Open vowel (aa)
E -> Mid vowel (e)
IH -> Close front vowel (ih)
OH -> Close-mid back vowel (oh)
OU -> Close back vowel (ou)

Nota: Se o seu personagem tem um conjunto diferente de visemas (o que é provável), você não precisa de correspondências exatas para cada visema. Aproximações geralmente são suficientes—por exemplo, mapear o visema SH do seu personagem para o visema CH do plugin funcionaria efetivamente, já que são sons postalveolares intimamente relacionados.

Referência de mapeamento de visemas

Aqui estão os mapeamentos entre sistemas comuns de visemas e os visemas exigidos pelo plugin:

O ARKit fornece um conjunto abrangente de blendshapes para animação facial, incluindo vários formatos de boca. Aqui está como mapeá-los para os visemas do RuntimeMetaHumanLipSync:

Visema RuntimeMetaHumanLipSyncEquivalente ARKitNotas
SilmouthCloseA posição neutra/repouso
PPmouthPressLeft + mouthPressRightPara sons bilabiais, use ambas as formas de pressão juntas
FFlowerLipBiteLeft + lowerLipBiteRight (ou mouthRollLower)Lábio inferior toca os dentes superiores, como nos sons "f" e "v"
THtongueOutO ARKit tem controle direto da língua
DDjawOpen (leve) + tongueUp (se tiver rig de língua)Língua toca o alvéolo; leve abertura da mandíbula
KKmouthLeft ou mouthRight (leve)Puxão sutil do canto da boca aproxima sons velares
CHjawOpen (leve) + mouthFunnel (leve)Combine para sons postalveolares
SSmouthFrownUse um leve franzir para sibilantes
NNjawOpen (muito leve) + mouthCloseBoca quase fechada com leve abertura da mandíbula
RRmouthPucker (leve)Arredondamento sutil para sons de r
AAjawOpen + mouthStretchLeft + mouthStretchRight (ou jawOpen + mouthOpen)Boca bem aberta para o som "ah"
EjawOpen (leve) + mouthSmilePosição semiaberta com leve sorriso
IHmouthSmile (leve)Leve abertura dos lábios
OHmouthFunnelForma arredondada aberta
OUmouthPuckerLábios firmemente arredondados

Criando um Pose Asset customizado

Siga estes passos para criar um pose asset customizado para seu personagem que será usado com o nó Blend Runtime MetaHuman Lip Sync:

1. Localize a Skeletal Mesh do seu personagem

Encontre a skeletal mesh que contém os morph targets (blend shapes) que você deseja usar para a animação de lip sync. Isso pode ser uma mesh corporal completa ou apenas uma mesh facial, dependendo do design do seu personagem.

2. Verifique os Morph Targets e Curves

Antes de prosseguir, verifique se sua skeletal mesh possui morph targets apropriados e curves correspondentes para animação de lip sync.

Verifique os Morph Targets: Verifique se sua skeletal mesh contém morph targets (blend shapes) que podem ser usados como visemas para animação de lip sync. A maioria dos personagens com suporte a animação facial deve ter alguns morph targets de fonemas/visemas. Exemplo de morph targets em um personagem

Importante: Verifique a aba Curves Esta etapa é especialmente crucial para personagens exportados do Blender ou de outros softwares externos:

  1. Abra a aba Curves no editor de Skeletal Mesh
  2. Verifique se você consegue ver curvas correspondentes aos seus morph targets
  3. Se a aba Curves estiver vazia mas os morph targets existirem, adicione manualmente novas curvas usando exatamente os mesmos nomes dos seus morph targets

Nota: Este problema ocorre comumente em exportações do Blender onde os morph targets importam com sucesso, mas as curvas de animação não são criadas automaticamente. Sem as curvas correspondentes, a animação não será preenchida corretamente após o baking para Control Rig.

Solução Alternativa: Para evitar este problema durante a exportação do Blender, tente habilitar Custom Properties e Animation nas configurações de exportação FBX, o que pode ajudar a incluir curvas de animação junto com os morph targets.

3. Crie uma Animation de Pose de Referência

  1. Vá para Create Asset -> Create Animation -> Reference Pose
  2. Digite um nome descritivo para a sequência de animação e salve-a em um local apropriado
  3. A Animation Sequence criada será aberta automaticamente, mostrando uma animação vazia reproduzindo em loop

Criando um asset de pose de referência Nomeando o asset de pose de referência

  1. Clique no botão Pause para parar a reprodução da animação para facilitar a edição

Pausando a reprodução da animação

4. Edite a Animation Sequence

  1. Clique em Edit in Sequencer -> Edit with FK Control Rig
  2. No diálogo Bake to Control Rig, clique no botão Bake to Control Rig sem alterar nenhuma configuração

Editando com FK Control Rig Fazendo baking para Control Rig

  1. O editor mudará para o Animation Mode com a aba Sequencer aberta
  2. Defina o View Range End Time para 0016 (o que definirá automaticamente o Working Range End para 0016 também)
  3. Arraste a borda direita do slider para o final direito da janela do sequenciador

5. Prepare as Curvas de Animação

  1. Retorne ao ativo de Sequência de Animação e localize os morph targets na lista Curves (se não estiverem visíveis, feche e reabra o ativo da Sequência de Animação)
  2. Remova quaisquer morph targets que não estejam relacionados a visemas ou movimentos da boca que você deseja usar para o Lip Sync

6. Planeje seu mapeamento de visemas

Crie um plano de mapeamento para associar os visemas do seu personagem ao conjunto exigido pelo plugin. Por exemplo:

Sil -> Sil
PP -> FV
FF -> FV
TH -> TH
DD -> TD
KK -> KG
CH -> CH
SS -> SZ
NN -> NL
RR -> RR
AA -> AA
E -> E
IH -> IH
OH -> O
OU -> U

Observe que é aceitável ter mapeamentos repetidos quando o conjunto de visemas do seu personagem não possui correspondências exatas para cada visema necessário.

7. Animar cada visema

  1. Para cada visema, anime as curvas do morph target relevante de 0.0 para 1.0
  2. Inicie a animação de cada visema em um frame diferente
  3. Configure curvas adicionais conforme necessário (abertura da mandíbula/boca, posição da língua, etc.) para criar formas de visema com aparência natural

8. Criar um Pose Asset

  1. Vá para Create Asset -> Pose Asset -> Current Animation
  2. Digite um nome descritivo para o Pose Asset e salve-o em um local apropriado
  3. O Pose Asset criado será aberto automaticamente, mostrando poses como Pose_0, Pose_1, etc., cada uma correspondendo a um visema
  4. Visualize os pesos dos visemas para garantir que funcionem conforme o esperado

Criando um pose asset Nomeando o pose asset Pose asset com visemas

9. Finalizar o Pose Asset

  1. Renomeie cada pose para corresponder aos nomes dos visemas da seção Prerequisites
  2. Exclua quaisquer poses não utilizadas

Configurando o tratamento e a mesclagem de áudio

Uma vez que seu Pose Asset estiver pronto, você precisa configurar os nós de tratamento e mesclagem de áudio:

  1. Localize ou crie o Animation Blueprint do seu personagem
  2. Configure o tratamento e a mesclagem de áudio seguindo os mesmos passos documentados no guia de configuração padrão do plugin
  3. No nó Blend Runtime MetaHuman Lip Sync, selecione seu Pose Asset personalizado em vez do Pose Asset padrão do MetaHuman

Selecionando o pose asset personalizado

Combinando com animações corporais

Se você deseja realizar a sincronização labial junto com outras animações corporais:

  1. Siga os mesmos passos documentados no guia padrão do plugin
  2. Certifique-se de fornecer os nomes corretos dos ossos para o skeleton do pescoço do seu personagem, em vez de usar os nomes de ossos do MetaHuman

Resultados

Aqui estão exemplos de personagens personalizados usando esta configuração:

Exemplo 1: Lip sync com personagem personalizado

Exemplo 2: Lip sync com sistema de visemas diferente

Exemplo 3: Lip sync com sistema de visemas diferente

A qualidade da sincronização labial depende em grande parte do personagem específico e de quão bem seus visemas estão configurados. Os exemplos acima demonstram o plugin funcionando com diferentes tipos de personagens personalizados com sistemas de visemas distintos.