Saltar al contenido principal

Guía de Configuración

Esta guía te lleva a través del proceso de configuración básica para Runtime MetaHuman Lip Sync con tus personajes MetaHuman.

Nota: Runtime MetaHuman Lip Sync funciona tanto con MetaHuman como con personajes personalizados. Para instrucciones detalladas sobre cómo configurar personajes personalizados, consulta la Guía de Configuración de Personajes Personalizados.

Prerrequisitos

Antes de comenzar, asegúrate de:

  1. El plugin MetaHuman está habilitado en tu proyecto (Nota: A partir de UE 5.6, este paso ya no es necesario ya que la funcionalidad MetaHuman está integrada directamente en el motor)
  2. Tienes al menos un personaje MetaHuman descargado y disponible en tu proyecto
  3. El plugin Runtime MetaHuman Lip Sync está instalado

Plugin de Extensión del Modelo Estándar

Si planeas usar el Modelo Estándar, necesitarás instalar el plugin de extensión:

  1. Descarga el plugin Standard Lip Sync Extension desde Google Drive
  2. Extrae la carpeta del archivo descargado en la carpeta Plugins de tu proyecto (crea esta carpeta si no existe)
  3. Asegúrate de que tu proyecto esté configurado como un proyecto C++ (incluso si no tienes ningún código C++)
  4. Recompila tu proyecto
nota
  • Esta extensión es solo necesaria si quieres usar el Modelo Estándar. Si solo necesitas los Modelos Realistas, puedes omitir este paso.
  • Para más información sobre cómo construir plugins manualmente, consulta el tutorial Construyendo Plugins

Plugins Adicionales

Configuración del Animation Blueprint

Paso 1: Localiza y modifica el Blueprint de animación facial

Necesitas modificar un Animation Blueprint que se usará para las animaciones faciales de tu personaje MetaHuman. El Animation Blueprint facial predeterminado de MetaHuman se encuentra en:

Content/MetaHumans/Common/Face/Face_AnimBP

Face Animation Blueprint

Tienes varias opciones para implementar la funcionalidad de lip sync:

Abre directamente Face_AnimBP predeterminado y realiza tus modificaciones. Cualquier cambio afectará a todos los personajes MetaHuman que utilicen este Animation Blueprint.

Nota: Este enfoque es conveniente pero afectará a todos los personajes que utilicen el Animation Blueprint predeterminado.

Paso 2: Configuración del Event Graph

Abre tu Face Animation Blueprint y cambia al Event Graph. Necesitarás crear un generador que procesará los datos de audio y generará la animación de lip sync.

  1. Añade el nodo Event Blueprint Begin Play si no existe ya
  2. Añade el nodo Create Runtime Viseme Generator y conéctalo al evento Begin Play
  3. Guarda la salida como una variable (por ejemplo, "VisemeGenerator") para usar en otras partes del gráfico

Creando Runtime Viseme Generator

Para opciones de configuración detalladas, consulta la sección Configuración del Standard Model.

Paso 3: Configuración del Anim Graph

Después de configurar el Event Graph, cambia al Anim Graph para conectar el generador a la animación del personaje:

  1. Localiza la pose que contiene la cara del MetaHuman (normalmente desde Use cached pose 'Body Pose')
  2. Añade el nodo Blend Runtime MetaHuman Lip Sync
  3. Conecta la pose al Source Pose del nodo Blend Runtime MetaHuman Lip Sync
  4. Conecta tu variable VisemeGenerator al pin Viseme Generator
  5. Conecta la salida del nodo Blend Runtime MetaHuman Lip Sync al pin Result del Output Pose

Blend Runtime MetaHuman Lip Sync

Próximos Pasos

Ahora que has completado la configuración básica del Animation Blueprint, necesitarás configurar el procesamiento de entrada de audio para alimentar datos de audio a tu generador de lip sync.

Continúa con la Guía de Procesamiento de Audio para aprender cómo configurar diferentes métodos de entrada de audio, incluyendo captura de micrófono, texto a voz y procesamiento de archivos de audio. Para opciones de configuración avanzada y ajustes finos, consulta la Guía de Configuración.