Saltar al contenido principal

Cómo usar el plugin con personajes personalizados

Esta guía te lleva a través del proceso de configurar Runtime MetaHuman Lip Sync para personajes que no son MetaHuman. Este proceso requiere familiaridad con conceptos de animación y rigging. Si necesitas ayuda implementando esto para tu personaje específico, puedes contactar para soporte profesional en [email protected].

Nota importante sobre modelos de Lip Sync

Compatibilidad con Personajes Personalizados

Los personajes personalizados solo son compatibles con el modelo Estándar (Más Rápido).

El modelo Realista (Mayor Calidad) está diseñado exclusivamente para personajes MetaHuman y no puede usarse con personajes personalizados. A lo largo de esta guía, debes seguir las instrucciones del modelo Estándar de la guía principal de configuración cuando se haga referencia.

Extensión del Plugin Requerida: Para usar el Modelo Estándar con personajes personalizados, debes instalar el plugin de extensión Standard Lip Sync como se describe en la sección de Prerrequisitos de la guía principal de configuración.

Esta extensión es requerida para todas las implementaciones de personajes personalizados descritas en esta guía.

Prerrequisitos

Antes de comenzar, asegúrate que tu personaje cumple con estos requisitos:

  • Tiene un esqueleto válido
  • Contiene morph targets (blend shapes) para expresiones faciales
  • Idealmente tiene 10+ morph targets definiendo visemas (más visemas = mejor calidad de lip sync)

El plugin requiere mapear los morph targets de tu personaje a los siguientes visemas estándar:

Sil -> Silence
PP -> Bilabial plosives (p, b, m)
FF -> Labiodental fricatives (f, v)
TH -> Dental fricatives (th)
DD -> Alveolar plosives (t, d)
KK -> Velar plosives (k, g)
CH -> Postalveolar affricates (ch, j)
SS -> Sibilants (s, z)
NN -> Nasal (n)
RR -> Approximant (r)
AA -> Open vowel (aa)
E -> Mid vowel (e)
IH -> Close front vowel (ih)
OH -> Close-mid back vowel (oh)
OU -> Close back vowel (ou)

Nota: Si tu personaje tiene un conjunto diferente de visemas (lo cual es probable), no necesitas coincidencias exactas para cada visema. A menudo son suficientes aproximaciones; por ejemplo, mapear el visema SH de tu personaje al visema CH del plugin funcionaría efectivamente ya que son sonidos postalveolares estrechamente relacionados.

Referencia de mapeo de visemas

Aquí están los mapeos entre sistemas comunes de visemas y los visemas requeridos por el plugin:

ARKit proporciona un conjunto completo de blendshapes para animación facial, incluyendo varias formas de boca. Así es cómo mapearlos a los visemas de RuntimeMetaHumanLipSync:

Visema RuntimeMetaHumanLipSyncEquivalente ARKitNotas
SilmouthCloseLa posición neutral/reposo
PPmouthPressLeft + mouthPressRightPara sonidos bilabiales, usa ambos press shapes juntos
FFlowerLipBiteLeft + lowerLipBiteRight (o mouthRollLower)Labio inferior contacta dientes superiores, como en sonidos "f" y "v"
THtongueOutARKit tiene control directo de la lengua
DDjawOpen (leve) + tongueUp (si tienes rig de lengua)Lengua toca cresta alveolar; leve apertura de mandíbula
KKmouthLeft o mouthRight (leve)Tirón sutil de comisuras aproxima sonidos velares
CHjawOpen (leve) + mouthFunnel (leve)Combina para sonidos postalveolares
SSmouthFrownUsa un leve fruncido para sibilantes
NNjawOpen (muy leve) + mouthCloseBoca casi cerrada con leve apertura de mandíbula
RRmouthPucker (leve)Redondeo sutil para sonidos de "r"
AAjawOpen + mouthStretchLeft + mouthStretchRight (o jawOpen + mouthOpen)Boca muy abierta para sonido "ah"
EjawOpen (leve) + mouthSmilePosición semi-abierta con leve sonrisa
IHmouthSmile (leve)Leve separación de labios
OHmouthFunnelForma redondeada abierta
OUmouthPuckerLabios fuertemente redondeados

Creación de un Pose Asset personalizado

Sigue estos pasos para crear un pose asset personalizado para tu personaje que se utilizará con el nodo Blend Runtime MetaHuman Lip Sync:

1. Localiza el Skeletal Mesh de tu personaje

Encuentra el skeletal mesh que contiene los morph targets (blend shapes) que deseas usar para la animación de lip sync. Puede ser un mesh completo del cuerpo o solo de la cara, dependiendo del diseño de tu personaje.

2. Verifica los Morph Targets disponibles

Asegúrate de que tu skeletal mesh tenga los morph targets apropiados que puedan usarse como visemas para la animación de lip sync. La mayoría de los personajes con soporte para animación facial deberían tener algunos morph targets de fonemas/visemas.

Ejemplo de morph targets en un personaje

3. Crea una Animation de Pose de Referencia

  1. Ve a Crear Asset -> Crear Animación -> Pose de Referencia
  2. Ingresa un nombre descriptivo para la secuencia de animación y guárdala en una ubicación apropiada
  3. La Secuencia de Animación creada se abrirá automáticamente, mostrando una animación vacía reproduciéndose en bucle

Creando un asset de pose de referencia Nombrando el asset de pose de referencia

  1. Haz clic en el botón Pausa para detener la reproducción de la animación y facilitar la edición

Pausando la reproducción de animación

4. Editar la Secuencia de Animación

  1. Haz clic en Editar en Sequencer -> Editar con FK Control Rig
  2. En el diálogo Bake to Control Rig, haz clic en el botón Bake to Control Rig sin cambiar ninguna configuración

Editando con FK Control Rig Horneando a Control Rig

  1. El editor cambiará a Modo Animación con la pestaña Sequencer abierta
  2. Establece el Tiempo Final del Rango de Vista a 0016 (lo que automáticamente establecerá también Trabajar Rango Final a 0016)
  3. Arrastra el borde derecho del control deslizante hasta el extremo derecho de la ventana del secuenciador

5. Preparar las curvas de animación

  1. Regresa al recurso de Animation Sequence y localiza los morph targets en la lista Curves (si no son visibles, cierra y vuelve a abrir el recurso Animation Sequence)
  2. Elimina cualquier morph target que no esté relacionado con visemas o movimientos de boca que quieras usar para el Lip Sync

6. Planifica tu mapeo de visemas

Crea un plan de mapeo para emparejar los visemas de tu personaje con el conjunto requerido por el plugin. Por ejemplo:

Sil -> Sil
PP -> FV
FF -> FV
TH -> TH
DD -> TD
KK -> KG
CH -> CH
SS -> SZ
NN -> NL
RR -> RR
AA -> AA
E -> E
IH -> IH
OH -> O
OU -> U

Ten en cuenta que es aceptable tener asignaciones repetidas cuando el conjunto de visemas de tu personaje no tiene coincidencias exactas para cada visema requerido.

7. Anima cada visema

  1. Para cada visema, anima las curvas de morph target relevantes de 0.0 a 1.0
  2. Comienza cada animación de visema en un fotograma diferente
  3. Configura curvas adicionales según sea necesario (apertura de mandíbula/boca, posición de la lengua, etc.) para crear formas de visema de aspecto natural

8. Crear un Pose Asset

  1. Ve a Create Asset -> Pose Asset -> Current Animation
  2. Ingresa un nombre descriptivo para el Pose Asset y guárdalo en una ubicación adecuada
  3. El Pose Asset creado se abrirá automáticamente, mostrando poses como Pose_0, Pose_1, etc., cada una correspondiente a un visema
  4. Previsualiza los pesos de los visemas para asegurarte de que funcionen como se espera

Creando un pose asset Nombrando el pose asset Pose asset con visemas

9. Finalizar el Pose Asset

  1. Renombra cada pose para que coincida con los nombres de los visemas de la sección Prerequisites
  2. Elimina cualquier pose no utilizada

Configuración del manejo de audio y mezcla

Una vez que tu asset de pose esté listo, necesitas configurar los nodos de manejo de audio y mezcla:

  1. Localiza o crea el Animation Blueprint de tu personaje
  2. Configura el manejo de audio y mezcla siguiendo los mismos pasos documentados en la guía de configuración estándar del plugin
  3. En el nodo Blend Runtime MetaHuman Lip Sync, selecciona tu Pose Asset personalizado en lugar del Pose Asset predeterminado de MetaHuman

Seleccionando el asset de pose personalizado

Combinación con animaciones corporales

Si deseas realizar lip sync junto con otras animaciones corporales:

  1. Sigue los mismos pasos documentados en la guía estándar del plugin
  2. Asegúrate de proporcionar los nombres correctos de los huesos del esqueleto del cuello de tu personaje en lugar de usar los nombres de huesos de MetaHuman

Resultados

Aquí hay ejemplos de personajes personalizados usando esta configuración:

Ejemplo 1: Lip sync con personaje personalizado

Ejemplo 2: Lip sync con sistema de visemas diferente

Ejemplo 3: Lip sync con sistema de visemas diferente

La calidad del lip sync depende en gran medida del personaje específico y de qué tan bien estén configurados sus visemas. Los ejemplos anteriores demuestran el plugin funcionando con diferentes tipos de personajes personalizados con sistemas de visemas distintos.