Pular para o conteúdo principal

Como usar o plugin com personagens personalizados

Este guia orienta você através do processo de configuração do Runtime MetaHuman Lip Sync para personagens não-MetaHuman. Este processo requer familiaridade com conceitos de animação e rigging. Se precisar de assistência para implementar isso para seu personagem específico, você pode entrar em contato para suporte profissional em [email protected].

Nota importante sobre modelos de lip sync

Compatibilidade com Personagens Personalizados

Personagens personalizados são suportados apenas com o modelo Standard (Faster).

O modelo Realistic (Higher Quality) é projetado exclusivamente para personagens MetaHuman e não pode ser usado com personagens personalizados. Ao longo deste guia, você deve seguir as instruções do modelo Standard do guia de configuração principal quando referenciado.

Plugin de Extensão Obrigatório: Para usar o Standard Model com personagens personalizados, você deve instalar o plugin Standard Lip Sync Extension conforme descrito na seção Pré-requisitos do guia de configuração principal.

Esta extensão é obrigatória para todas as implementações de personagens personalizados descritas neste guia.

Pré-requisitos

Antes de começar, certifique-se de que seu personagem atenda a estes requisitos:

  • Possui um esqueleto válido
  • Contém morph targets (blend shapes) para expressões faciais
  • Idealmente possui 10+ morph targets definindo visemas (mais visemas = melhor qualidade de lip sync)

O plugin requer mapear os morph targets do seu personagem para os seguintes visemas padrão:

Sil -> Silence
PP -> Bilabial plosives (p, b, m)
FF -> Labiodental fricatives (f, v)
TH -> Dental fricatives (th)
DD -> Alveolar plosives (t, d)
KK -> Velar plosives (k, g)
CH -> Postalveolar affricates (ch, j)
SS -> Sibilants (s, z)
NN -> Nasal (n)
RR -> Approximant (r)
AA -> Open vowel (aa)
E -> Mid vowel (e)
IH -> Close front vowel (ih)
OH -> Close-mid back vowel (oh)
OU -> Close back vowel (ou)

Observação: Se seu personagem tem um conjunto diferente de visemas (o que é provável), você não precisa de correspondências exatas para cada visema. Aproximações geralmente são suficientes - por exemplo, mapear o visema SH do seu personagem para o visema CH do plugin funcionaria de forma eficaz, pois são sons postalveolares intimamente relacionados.

Referência de mapeamento de visemas

Aqui estão os mapeamentos entre sistemas de visemas comuns e os visemas exigidos pelo plugin:

O ARKit fornece um conjunto abrangente de blendshapes para animação facial, incluindo vários formatos de boca. Veja como mapeá-los para os visemas do RuntimeMetaHumanLipSync:

Visema RuntimeMetaHumanLipSyncEquivalente ARKitObservações
SilmouthCloseA posição neutra/repouso
PPmouthPressLeft + mouthPressRightPara sons bilabiais, use ambas as formas de pressão juntas
FFlowerLipBiteLeft + lowerLipBiteRight (ou mouthRollLower)Lábio inferior toca os dentes superiores, como nos sons "f" e "v"
THtongueOutO ARKit tem controle direto da língua
DDjawOpen (suave) + tongueUp (se você tiver rig de língua)Língua toca o alvéolo; leve queda da mandíbula
KKmouthLeft ou mouthRight (suave)Puxão sutil no canto da boca aproxima sons velares
CHjawOpen (suave) + mouthFunnel (suave)Combine para sons postalveolares
SSmouthFrownUse uma leve franzida para sibilantes
NNjawOpen (muito suave) + mouthCloseBoca quase fechada com leve abertura da mandíbula
RRmouthPucker (suave)Arredondamento sutil para sons de "r"
AAjawOpen + mouthStretchLeft + mouthStretchRight (ou jawOpen + mouthOpen)Boca bem aberta para o som "ah"
EjawOpen (suave) + mouthSmilePosição semiaberta com leve sorriso
IHmouthSmile (suave)Leve espalhamento dos lábios
OHmouthFunnelForma aberta e arredondada
OUmouthPuckerLábios firmemente arredondados

Criando um Pose Asset customizado

Siga estes passos para criar um pose asset customizado para seu personagem que será usado com o nó Blend Runtime MetaHuman Lip Sync:

1. Localize o Skeletal Mesh do seu personagem

Encontre o skeletal mesh que contém os morph targets (blend shapes) que você deseja usar para a animação de lip sync. Pode ser um mesh de corpo inteiro ou apenas um mesh facial, dependendo do design do seu personagem.

2. Verifique Morph Targets e Curves

Antes de prosseguir, verifique se seu skeletal mesh possui morph targets e curves correspondentes apropriados para animação de lip sync.

Verifique Morph Targets: Verifique se seu skeletal mesh contém morph targets (blend shapes) que podem ser usados como visemas para animação de lip sync. A maioria dos personagens com suporte a animação facial deve ter alguns morph targets de fonemas/visemas. Exemplo de morph targets em um personagem

Importante: Verificar a Aba Curves Esta etapa é especialmente crucial para personagens exportados do Blender ou de outros softwares externos:

  1. Abra a aba Curves no editor de Skeletal Mesh
  2. Verifique se você consegue ver curvas correspondentes aos seus morph targets
  3. Se a aba Curves estiver vazia mas os morph targets existirem, adicione manualmente novas curvas usando exatamente os mesmos nomes dos seus morph targets

Nota: Este problema ocorre comumente com exportações do Blender onde os morph targets importam com sucesso, mas as curvas de animação não são criadas automaticamente. Sem curvas correspondentes, a animação não será preenchida corretamente após o baking para o Control Rig.

Solução Alternativa: Para evitar este problema durante a exportação do Blender, tente habilitar Custom Properties e Animation nas configurações de exportação do FBX, o que pode ajudar a incluir curvas de animação junto com os morph targets.

3. Criar uma Animation de Pose de Referência

  1. Vá para Create Asset -> Create Animation -> Reference Pose
  2. Digite um nome descritivo para a sequência de animação e salve-a em um local apropriado
  3. A Animation Sequence criada será aberta automaticamente, mostrando uma animação vazia reproduzindo em loop

Criando um asset de pose de referência Nomeando o asset de pose de referência

  1. Clique no botão Pause para parar a reprodução da animação para facilitar a edição

Pausando a reprodução da animação

4. Editar a Animation Sequence

  1. Clique em Edit in Sequencer -> Edit with FK Control Rig
  2. No diálogo Bake to Control Rig, clique no botão Bake to Control Rig sem alterar nenhuma configuração

Editando com FK Control Rig Fazendo baking para Control Rig

  1. O editor mudará para Animation Mode com a aba Sequencer aberta
  2. Defina o View Range End Time para 0016 (o que definirá automaticamente Working Range End para 0016 também)
  3. Arraste a borda direita do slider para a extremidade direita da janela do sequenciador

5. Preparar as Curvas de Animação

  1. Retorne ao asset de Sequência de Animação e localize os morph targets na lista Curves (se eles não estiverem visíveis, feche e reabra o asset de Sequência de Animação)
  2. Remova quaisquer morph targets que não estejam relacionados aos visemas ou movimentos de boca que você deseja usar para a sincronização labial

6. Planeje seu mapeamento de visemas

Crie um plano de mapeamento para corresponder os visemas do seu personagem ao conjunto exigido pelo plugin. Por exemplo:

Sil -> Sil
PP -> FV
FF -> FV
TH -> TH
DD -> TD
KK -> KG
CH -> CH
SS -> SZ
NN -> NL
RR -> RR
AA -> AA
E -> E
IH -> IH
OH -> O
OU -> U

Observe que é aceitável ter mapeamentos repetidos quando o conjunto de visemas do seu personagem não possui correspondências exatas para cada visema necessário.

7. Animar cada visema

  1. Para cada visema, anime as curvas do morph target relevante de 0.0 para 1.0
  2. Inicie a animação de cada visema em um frame diferente
  3. Configure curvas adicionais conforme necessário (abertura da mandíbula/boca, posição da língua, etc.) para criar formas de visemas com aparência natural

8. Criar um Pose Asset

  1. Vá para Create Asset -> Pose Asset -> Current Animation
  2. Digite um nome descritivo para o Pose Asset e salve-o em um local apropriado
  3. O Pose Asset criado será aberto automaticamente, mostrando poses como Pose_0, Pose_1, etc., cada uma correspondendo a um visema
  4. Visualize os pesos dos visemas para garantir que funcionam conforme o esperado

Criando um pose asset Nomeando o pose asset Pose asset com visemas

9. Finalizar o Pose Asset

  1. Renomeie cada pose para corresponder aos nomes dos visemas da seção Prerequisites
  2. Exclua quaisquer poses não utilizadas

Configurando o tratamento de áudio e a mesclagem

Uma vez que seu ativo de pose estiver pronto, você precisa configurar os nós de tratamento de áudio e mesclagem:

  1. Localize ou crie o Animation Blueprint do seu personagem
  2. Configure o tratamento de áudio e a mesclagem seguindo os mesmos passos documentados no guia de configuração padrão do plugin
  3. No nó Blend Runtime MetaHuman Lip Sync, selecione seu ativo de Pose personalizado em vez do ativo de pose MetaHuman padrão

Selecionando o ativo de pose personalizado

Combinando com animações corporais

Se você deseja executar a sincronização labial junto com outras animações corporais:

  1. Siga os mesmos passos documentados no guia padrão do plugin
  2. Certifique-se de fornecer os nomes corretos dos ossos para o esqueleto do pescoço do seu personagem, em vez de usar os nomes dos ossos do MetaHuman

Resultados

Aqui estão exemplos de personagens personalizados usando esta configuração:

Exemplo 1: Sincronização labial com personagem personalizado

Exemplo 2: Sincronização labial com sistema de visemas diferente

Exemplo 3: Sincronização labial com sistema de visemas diferente

A qualidade da sincronização labial depende em grande parte do personagem específico e de quão bem seus visemas estão configurados. Os exemplos acima demonstram o plugin funcionando com diferentes tipos de personagens personalizados com sistemas de visemas distintos.