Saltar al contenido principal

Guía de Configuración

Esta guía te lleva a través del proceso de configuración básica para Runtime MetaHuman Lip Sync con tus personajes MetaHuman.

Nota: Runtime MetaHuman Lip Sync funciona tanto con MetaHuman como con personajes personalizados. Para instrucciones detalladas sobre cómo configurar personajes personalizados, consulta la Guía de Configuración de Personajes Personalizados.

Prerrequisitos

Antes de comenzar, asegúrate de:

  1. Requisitos del Plugin MetaHuman:

    • UE 5.5 y anteriores: Habilita el plugin MetaHuman en tu proyecto
    • UE 5.6 y posteriores: Habilita el plugin MetaHuman Core Tech en tu proyecto
    Plugins Adicionales de MetaHuman

    Dependiendo de cómo crees tus personajes MetaHuman, es posible que necesites plugins adicionales. Por ejemplo, si tienes la intención de crear un MetaHuman con el nuevo sistema MetaHuman Creator introducido en UE 5.6, también necesitarás habilitar el plugin MetaHuman Creator. Para obtener más información sobre este sistema, consulta la documentación de MetaHuman Creator.

  2. Tienes al menos un personaje MetaHuman descargado y disponible en tu proyecto

  3. El plugin Runtime MetaHuman Lip Sync está instalado

Plugin de Extensión del Modelo Estándar

Si planeas usar el Modelo Estándar, necesitarás instalar el plugin de extensión:

  1. Descarga el plugin de extensión Standard Lip Sync Extension desde aquí
  2. Extrae la carpeta del archivo descargado en la carpeta Plugins de tu proyecto (crea esta carpeta si no existe)
  3. Asegúrate de que tu proyecto esté configurado como un proyecto C++ (incluso si no tienes ningún código C++)
  4. Reconstruye tu proyecto
nota
  • Esta extensión es solo necesaria si quieres usar el Modelo Estándar. Si solo necesitas los Modelos Realistas, puedes omitir este paso.
  • Para obtener más información sobre cómo construir plugins manualmente, consulta el tutorial de Construcción de Plugins

Plugins Adicionales

  • Si planeas usar captura de audio (por ejemplo, entrada de micrófono), instala el plugin Runtime Audio Importer.
  • Si planeas usar la funcionalidad de texto a voz:

Configuración del Blueprint de Animación

Paso 1: Localizar y modificar el Blueprint de animación facial

Necesitas modificar un Blueprint de Animación que se usará para las animaciones faciales de tu personaje MetaHuman. El Blueprint de Animación facial predeterminado de MetaHuman se encuentra en:

Content/MetaHumans/Common/Face/Face_AnimBP

Face Animation Blueprint

Tienes varias opciones para implementar la funcionalidad de sincronización labial:

Abre directamente el Face_AnimBP predeterminado y realiza tus modificaciones. Cualquier cambio afectará a todos los personajes MetaHuman que utilicen este Animation Blueprint.

Nota: Este enfoque es conveniente pero afectará a todos los personajes que utilicen el Animation Blueprint predeterminado.

Paso 2: Configuración del Event Graph

Abre tu Face Animation Blueprint y cambia al Event Graph. Necesitarás crear un generador que procese los datos de audio y genere la animación de sincronización labial.

  1. Añade el nodo Event Blueprint Begin Play si no existe ya
  2. Añade el nodo Create Runtime Viseme Generator y conéctalo al evento Begin Play
  3. Guarda la salida como una variable (ej. "VisemeGenerator") para usarla en otras partes del grafo

Creando Runtime Viseme Generator

Para opciones de configuración detalladas, consulta la sección Configuración del Modelo Estándar.

Paso 3: Configuración del Anim Graph

Después de configurar el Event Graph, cambia al Anim Graph para conectar el generador a la animación del personaje:

  1. Localiza la pose que contiene la cara del MetaHuman (típicamente de Use cached pose 'Body Pose')
  2. Añade el nodo Blend Runtime MetaHuman Lip Sync
  3. Conecta la pose al Source Pose del nodo Blend Runtime MetaHuman Lip Sync
  4. Conecta tu variable VisemeGenerator al pin Viseme Generator
  5. Conecta la salida del nodo Blend Runtime MetaHuman Lip Sync al pin Result del Output Pose

Blend Runtime MetaHuman Lip Sync

Próximos Pasos

Ahora que has completado la configuración básica del Animation Blueprint, necesitarás configurar el procesamiento de entrada de audio para alimentar datos de audio a tu generador de sincronización labial.

Continúa con la Guía de Procesamiento de Audio para aprender cómo configurar diferentes métodos de entrada de audio, incluyendo captura de micrófono, texto a voz y procesamiento de archivos de audio.

Para opciones de configuración avanzada y ajustes finos, consulta la Guía de Configuración.