Saltar al contenido principal

Guía de Configuración

Esta guía te lleva a través del proceso de configuración básica para Runtime MetaHuman Lip Sync con tus personajes MetaHuman.

Nota: Runtime MetaHuman Lip Sync funciona tanto con MetaHuman como con personajes personalizados. Para instrucciones detalladas sobre cómo configurar personajes personalizados, consulta la Guía de Configuración para Personajes Personalizados.

Prerrequisitos

Antes de comenzar, asegúrate de:

  1. Requisitos del Plugin MetaHuman:

    • UE 5.5 y anteriores: Habilita el plugin MetaHuman en tu proyecto
    • UE 5.6 y posteriores: Habilita el plugin MetaHuman Core Tech en tu proyecto
    Plugins Adicionales de MetaHuman

    Dependiendo de cómo crees tus personajes MetaHuman, es posible que necesites plugins adicionales. Por ejemplo, si tienes la intención de crear un MetaHuman con el nuevo sistema MetaHuman Creator introducido en UE 5.6, también necesitarás habilitar el plugin MetaHuman Creator. Para obtener más información sobre este sistema, consulta la documentación de MetaHuman Creator.

  2. Tienes al menos un personaje MetaHuman descargado y disponible en tu proyecto

  3. El plugin Runtime MetaHuman Lip Sync está instalado

Plugin de Extensión del Modelo Estándar

Si planeas usar el Modelo Estándar, necesitarás instalar el plugin de extensión:

  1. Descarga el Standard Lip Sync Extension plugin desde Google Drive
  2. Extrae la carpeta del archivo descargado en la carpeta Plugins de tu proyecto (crea esta carpeta si no existe)
  3. Asegúrate de que tu proyecto esté configurado como un proyecto C++ (incluso si no tienes ningún código C++)
  4. Reconstruye tu proyecto
nota
  • Esta extensión es solo necesaria si quieres usar el Modelo Estándar. Si solo necesitas los Modelos Realistas, puedes omitir este paso.
  • Para obtener más información sobre cómo construir plugins manualmente, consulta el tutorial Building Plugins

Plugins Adicionales

  • Si planeas usar captura de audio (por ejemplo, entrada de micrófono), instala el plugin Runtime Audio Importer.
  • Si planeas usar la funcionalidad de texto a voz:

Configuración del Animation Blueprint

Paso 1: Localizar y modificar el Blueprint de animación facial

Necesitas modificar un Animation Blueprint que se utilizará para las animaciones faciales de tu personaje MetaHuman. El Animation Blueprint facial predeterminado de MetaHuman se encuentra en:

Content/MetaHumans/Common/Face/Face_AnimBP

Face Animation Blueprint

Tienes varias opciones para implementar la funcionalidad de sincronización labial:

Abre directamente el Face_AnimBP predeterminado y realiza tus modificaciones. Cualquier cambio afectará a todos los personajes MetaHuman que utilicen este Animation Blueprint.

Nota: Este enfoque es conveniente pero afectará a todos los personajes que utilicen el Animation Blueprint predeterminado.

Paso 2: Configuración del Event Graph

Abra su Face Animation Blueprint y cambie al Event Graph. Necesitará crear un generador que procesará datos de audio y generará animación de sincronización labial.

  1. Agregue el nodo Event Blueprint Begin Play si no existe ya
  2. Agregue el nodo Create Runtime Viseme Generator y conéctelo al evento Begin Play
  3. Guarde la salida como una variable (por ejemplo, "VisemeGenerator") para usar en otras partes del gráfico

Creando Runtime Viseme Generator

Para opciones de configuración detalladas, consulte la sección Configuración del Modelo Estándar.

Paso 3: Configuración del Gráfico de Animación

Después de configurar el Gráfico de Eventos, cambia al Anim Graph para conectar el generador a la animación del personaje:

  1. Localiza la pose que contiene la cara del MetaHuman (normalmente desde Use cached pose 'Body Pose')
  2. Añade el nodo Blend Runtime MetaHuman Lip Sync
  3. Conecta la pose al Source Pose del nodo Blend Runtime MetaHuman Lip Sync
  4. Conecta tu variable VisemeGenerator al pin Viseme Generator
  5. Conecta la salida del nodo Blend Runtime MetaHuman Lip Sync al pin Result de la Output Pose

Blend Runtime MetaHuman Lip Sync

Próximos Pasos

Ahora que tienes la configuración básica del Animation Blueprint completa, necesitarás configurar el procesamiento de entrada de audio para alimentar datos de audio a tu generador de sincronización de labios.

Continúa con la Guía de Procesamiento de Audio para aprender cómo configurar diferentes métodos de entrada de audio, incluyendo captura de micrófono, texto a voz y procesamiento de archivos de audio. Para opciones de configuración avanzadas y ajustes finos, consulta la Guía de Configuración.