Saltar al contenido principal

Usando el plugin con personajes personalizados

Esta guía te lleva a través del proceso de configuración de Runtime MetaHuman Lip Sync para personajes que no son MetaHuman. Este proceso requiere familiaridad con conceptos de animación y rigging. Si necesitas ayuda para implementar esto en tu personaje específico, puedes solicitar soporte profesional en [email protected].

Prerrequisitos

Antes de comenzar, asegúrate de que tu personaje cumpla con estos requisitos:

  • Tiene un esqueleto válido
  • Contiene morph targets (blend shapes) para expresiones faciales
  • Idealmente tiene 10+ morph targets definiendo visemas (más visemas = mejor calidad de lip sync)

El plugin requiere mapear los morph targets de tu personaje a los siguientes visemas estándar:

Sil -> Silence
PP -> Bilabial plosives (p, b, m)
FF -> Labiodental fricatives (f, v)
TH -> Dental fricatives (th)
DD -> Alveolar plosives (t, d)
KK -> Velar plosives (k, g)
CH -> Postalveolar affricates (ch, j)
SS -> Sibilants (s, z)
NN -> Nasal (n)
RR -> Approximant (r)
AA -> Open vowel (aa)
E -> Mid vowel (e)
IH -> Close front vowel (ih)
OH -> Close-mid back vowel (oh)
OU -> Close back vowel (ou)

Nota: Si tu personaje tiene un conjunto diferente de visemas (lo cual es probable), no necesitas coincidencias exactas para cada visema. Las aproximaciones suelen ser suficientes; por ejemplo, mapear el visema SH de tu personaje al visema CH del plugin funcionaría efectivamente ya que son sonidos postalveolares estrechamente relacionados.

Referencia de mapeo de visemas

Aquí están los mapeos entre sistemas comunes de visemas y los visemas requeridos por el plugin:

ARKit proporciona un conjunto completo de blendshapes para animación facial, incluyendo varias formas de boca. Así es como mapearlos a los visemas de RuntimeMetaHumanLipSync:

Visema RuntimeMetaHumanLipSyncEquivalente ARKitNotas
SilmouthCloseLa posición neutral/reposo
PPmouthPressLeft + mouthPressRightPara sonidos bilabiales, usa ambos press shapes juntos
FFlowerLipBiteLeft + lowerLipBiteRightEstos crean el contacto labio-diente para "f/v"
THtongueOutARKit tiene control directo de la lengua
DDjawOpen (leve) + tongueUpCombina apertura leve de mandíbula con posición de lengua
KKmouthLeft o mouthRight (leve)Tirón sutil de comisura aproxima sonidos velares
CHjawOpen (leve) + mouthFunnel (leve)Combina para sonidos postalveolares
SSmouthFrownUsa un leve ceño para sibilantes
NNjawOpen (muy leve) + mouthCloseBoca casi cerrada con leve apertura de mandíbula
RRmouthPucker (leve)Redondeo sutil para sonidos de R
AAjawOpen + mouthOpenCombinado para sonidos vocálicos amplios
EjawOpen (leve) + mouthSmilePosición semi-abierta con leve sonrisa
IHmouthSmile (leve)Leve separación de labios
OHmouthFunnelForma redondeada abierta
OUmouthPuckerLabios fuertemente redondeados

Creando un Pose Asset personalizado

Sigue estos pasos para crear un pose asset personalizado para tu personaje que se usará con el nodo Blend Runtime MetaHuman Lip Sync:

1. Localiza el Skeletal Mesh de tu personaje

Encuentra el skeletal mesh que contiene los morph targets (blend shapes) que quieres usar para la animación de lip sync. Puede ser un mesh de cuerpo completo o solo facial, dependiendo del diseño de tu personaje.

2. Verifica los Morph Targets disponibles

Asegúrate que tu skeletal mesh tiene morph targets apropiados que puedan usarse como visemas para animación de lip sync. La mayoría de personajes con soporte de animación facial deberían tener algunos morph targets de fonemas/visemas.

Ejemplo de morph targets en un personaje

3. Crea una Animation Sequence de Pose de Referencia

  1. Ve a Create Asset -> Create Animation -> Reference Pose
  2. Ingresa un nombre descriptivo para la secuencia de animación y guárdala en una ubicación apropiada
  3. La Animation Sequence creada se abrirá automáticamente, mostrando una animación vacía reproduciéndose en bucle

Creando un asset de pose de referencia Nombrando el asset de pose de referencia

  1. Haz clic en el botón Pause para detener la reproducción y facilitar la edición

Pausando la reproducción de animación

4. Edita la Animation Sequence

  1. Haz clic en Edit in Sequencer -> Edit with FK Control Rig
  2. En el diálogo Bake to Control Rig, haz clic en el botón Bake to Control Rig sin cambiar configuraciones

Editando con FK Control Rig Horneando a Control Rig

  1. El editor cambiará a Animation Mode con la pestaña Sequencer abierta
  2. Establece el View Range End Time a 0016 (lo cual automáticamente establecerá Working Range End a 0016 también)
  3. Arrastra el borde derecho del slider al final de la ventana del secuenciador

5. Preparar las curvas de animación

  1. Regresa al asset de Secuencia de Animación y localiza los morph targets en la lista Curves (si no son visibles, cierra y vuelve a abrir el asset de Secuencia de Animación)
  2. Elimina cualquier morph target que no esté relacionado con visemas o movimientos de boca que quieras usar para el lip sync

6. Planifica tu mapeo de visemas

Crea un plan de mapeo para relacionar los visemas de tu personaje con el conjunto requerido por el plugin. Por ejemplo:

Sil -> Sil
PP -> FV
FF -> FV
TH -> TH
DD -> TD
KK -> KG
CH -> CH
SS -> SZ
NN -> NL
RR -> RR
AA -> AA
E -> E
IH -> IH
OH -> O
OU -> U

Nota: Es aceptable tener mapeos repetidos cuando el conjunto de visemas de tu personaje no tiene coincidencias exactas para cada visema requerido.

7. Anima cada visema

  1. Para cada visema, anima las curvas de morph target relevantes de 0.0 a 1.0
  2. Inicia cada animación de visema en un fotograma diferente
  3. Configura curvas adicionales según sea necesario (apertura de mandíbula/boca, posición de la lengua, etc.) para crear formas de visemas de aspecto natural

8. Crear un Pose Asset

  1. Ve a Create Asset -> Pose Asset -> Current Animation
  2. Ingresa un nombre descriptivo para el Pose Asset y guárdalo en una ubicación adecuada
  3. El Pose Asset creado se abrirá automáticamente, mostrando poses como Pose_0, Pose_1, etc., cada una correspondiente a un visema
  4. Previsualiza los pesos de los visemas para asegurarte de que funcionen como se espera

Creando un pose asset Nombrando el pose asset Pose asset con visemas

9. Finalizar el Pose Asset

  1. Renombra cada pose para que coincida con los nombres de los visemas de la sección Prerequisites
  2. Elimina cualquier pose no utilizada

Configuración del manejo de audio y mezcla

Una vez que tu Pose Asset esté listo, necesitas configurar los nodos de manejo de audio y mezcla:

  1. Localiza o crea el Animation Blueprint de tu personaje
  2. Configura el manejo de audio y mezcla siguiendo los mismos pasos que se documentan en la guía de configuración estándar del plugin
  3. En el nodo Blend Runtime MetaHuman Lip Sync, selecciona tu Pose Asset personalizado en lugar del Pose Asset predeterminado de MetaHuman

Seleccionando el Pose Asset personalizado

Combinación con animaciones corporales

Si deseas realizar lip sync junto con otras animaciones corporales:

  1. Sigue los mismos pasos que se documentan en la guía estándar del plugin
  2. Asegúrate de proporcionar los nombres correctos de los huesos del esqueleto del cuello de tu personaje en lugar de usar los nombres de huesos de MetaHuman

Resultados

Aquí hay ejemplos de personajes personalizados usando esta configuración:

Ejemplo 1: Lip sync con personaje personalizado

Ejemplo 2: Lip sync con sistema de visemas diferente

Ejemplo 3: Lip sync con sistema de visemas diferente

La calidad del lip sync depende en gran medida del personaje específico y de qué tan bien estén configurados sus visemas. Los ejemplos anteriores demuestran el funcionamiento del plugin con diferentes tipos de personajes personalizados con sistemas de visemas distintos.