Guía de Configuración
Esta guía te lleva a través del proceso de configuración básica para Runtime MetaHuman Lip Sync con tus personajes MetaHuman.
Nota: Runtime MetaHuman Lip Sync funciona tanto con MetaHuman como con personajes personalizados. Para instrucciones detalladas sobre cómo configurar personajes personalizados, consulta la Guía de Configuración de Personajes Personalizados.
Prerrequisitos
Antes de comenzar, asegúrate de:
- El plugin MetaHuman está habilitado en tu proyecto (Nota: A partir de UE 5.6, este paso ya no es necesario ya que la funcionalidad MetaHuman está integrada directamente en el motor)
- Tienes al menos un personaje MetaHuman descargado y disponible en tu proyecto
- El plugin Runtime MetaHuman Lip Sync está instalado
Plugin de Extensión del Modelo Estándar
Si planeas usar el Modelo Estándar, necesitarás instalar el plugin de extensión:
- Descarga el plugin Standard Lip Sync Extension desde Google Drive
- Extrae la carpeta del archivo descargado en la carpeta
Plugins
de tu proyecto (crea esta carpeta si no existe) - Asegúrate de que tu proyecto esté configurado como un proyecto C++ (incluso si no tienes ningún código C++)
- Recompila tu proyecto
- Esta extensión es solo necesaria si quieres usar el Modelo Estándar. Si solo necesitas los Modelos Realistas, puedes omitir este paso.
- Para más información sobre cómo construir plugins manualmente, consulta el tutorial Construyendo Plugins
Plugins Adicionales
- Si planeas usar captura de audio (por ejemplo, entrada de micrófono), instala el plugin Runtime Audio Importer.
- Si planeas usar la funcionalidad de texto a voz:
- Para TTS local (solo Modelo Estándar), instala el plugin Runtime Text To Speech.
- Para proveedores de TTS externos (ElevenLabs, OpenAI), instala el plugin Runtime AI Chatbot Integrator.
Configuración del Animation Blueprint
Paso 1: Localiza y modifica el Blueprint de animación facial
- UE 5.5 y Anteriores (o MetaHumans Legacy en UE 5.6+)
- Personajes de MetaHuman Creator UE 5.6+
Necesitas modificar un Animation Blueprint que se usará para las animaciones faciales de tu personaje MetaHuman. El Animation Blueprint facial predeterminado de MetaHuman se encuentra en:
Content/MetaHumans/Common/Face/Face_AnimBP
Tienes varias opciones para implementar la funcionalidad de lip sync:
- Editar Asset Predeterminado (Opción Más Simple)
- Crear Duplicado
- Usar Animation Blueprint Personalizado
Abre directamente Face_AnimBP
predeterminado y realiza tus modificaciones. Cualquier cambio afectará a todos los personajes MetaHuman que utilicen este Animation Blueprint.
Nota: Este enfoque es conveniente pero afectará a todos los personajes que utilicen el Animation Blueprint predeterminado.
- Duplica
Face_AnimBP
y dale un nombre descriptivo - Localiza la clase Blueprint de tu personaje (por ejemplo, para el personaje "Bryan", estaría en
Content/MetaHumans/Bryan/BP_Bryan
) - Abre el Blueprint del personaje y encuentra el componente Face
- Cambia la propiedad Anim Class a tu Animation Blueprint recién duplicado
Nota: Este enfoque te permite personalizar el lip sync para personajes específicos mientras deja a otros sin cambios.
Puedes implementar la mezcla de lip sync en cualquier Animation Blueprint que tenga acceso a los huesos faciales requeridos:
- Crea o utiliza un Animation Blueprint personalizado existente
- Asegúrate de que tu Animation Blueprint funcione con un esqueleto que contenga los mismos huesos faciales que el
Face_Archetype_Skeleton
predeterminado de MetaHuman
Nota: Este enfoque te brinda la máxima flexibilidad para la integración con sistemas de animación personalizados.
A partir de UE 5.6, se introdujo el nuevo sistema MetaHuman Creator. Para estos personajes, el plugin proporciona un Animation Blueprint facial ubicado en:
Content/LipSyncData/LipSync_Face_AnimBP
Este Animation Blueprint se encuentra en la carpeta de contenido del plugin y se sobrescribirá con cada actualización del plugin. Para evitar perder tus personalizaciones:
- Copia este activo a la carpeta Content de tu proyecto (por ejemplo, a
YourProject/Content/MetaHumans/LipSync_Face_AnimBP
) - Usa tu versión copiada en la configuración de tu personaje
- Realiza todas tus modificaciones en la versión copiada
Usando el Face Animation Blueprint del Plugin:
- Localiza la clase Blueprint de tu personaje de MetaHuman Creator
- Abre el Blueprint del personaje y encuentra el componente Face
- Cambia la propiedad Anim Class al
LipSync_Face_AnimBP
del plugin - Continúa con los siguientes pasos para configurar la funcionalidad Runtime MetaHuman Lip Sync
Paso 2: Configuración del Event Graph
Abre tu Face Animation Blueprint y cambia al Event Graph
. Necesitarás crear un generador que procesará los datos de audio y generará la animación de lip sync.
- Standard Model
- Realistic Model
- Mood-Enabled Realistic Model
- Añade el nodo
Event Blueprint Begin Play
si no existe ya - Añade el nodo
Create Runtime Viseme Generator
y conéctalo al evento Begin Play - Guarda la salida como una variable (por ejemplo, "VisemeGenerator") para usar en otras partes del gráfico
Para opciones de configuración detalladas, consulta la sección Configuración del Standard Model.
- Añade el nodo
Event Blueprint Begin Play
si no existe ya - Añade el nodo
Create Realistic MetaHuman Lip Sync Generator
y conéctalo al evento Begin Play - Guarda la salida como una variable (por ejemplo, "RealisticMetaHumanLipSyncGenerator") para usar en otras partes del gráfico
- (Opcional) Configura los ajustes del generador usando el parámetro Configuration
Para opciones de configuración detalladas incluyendo tipos de modelo, ajustes de rendimiento y parámetros de procesamiento, consulta la sección Configuración del Realistic Model.
- Añade el nodo
Event Blueprint Begin Play
si no existe ya - Añade el nodo
Create Realistic MetaHuman Lip Sync With Mood Generator
y conéctalo al evento Begin Play - Guarda la salida como una variable (por ejemplo, "MoodMetaHumanLipSyncGenerator") para usar en otras partes del gráfico
- (Opcional) Configura los ajustes del generador usando el parámetro Configuration
Para configuración detallada del estado de ánimo incluyendo tipos de estado de ánimo, configuraciones de intensidad, temporización de anticipación y selección de tipo de salida, consulta la sección Configuración del Modelo Habilitado para Estados de Ánimo.
Paso 3: Configuración del Anim Graph
Después de configurar el Event Graph, cambia al Anim Graph
para conectar el generador a la animación del personaje:
- Modelo Estándar
- Modelo Realista
- Modelo Realista Habilitado para Estados de Ánimo
- Localiza la pose que contiene la cara del MetaHuman (normalmente desde
Use cached pose 'Body Pose'
) - Añade el nodo
Blend Runtime MetaHuman Lip Sync
- Conecta la pose al
Source Pose
del nodoBlend Runtime MetaHuman Lip Sync
- Conecta tu variable
VisemeGenerator
al pinViseme Generator
- Conecta la salida del nodo
Blend Runtime MetaHuman Lip Sync
al pinResult
delOutput Pose
- Localiza la pose que contiene la cara del MetaHuman (normalmente desde
Use cached pose 'Body Pose'
) - Añade el nodo
Blend Realistic MetaHuman Lip Sync
- Conecta la pose al
Source Pose
del nodoBlend Realistic MetaHuman Lip Sync
- Conecta tu variable
RealisticMetaHumanLipSyncGenerator
al pinLip Sync Generator
- Conecta la salida del nodo
Blend Realistic MetaHuman Lip Sync
al pinResult
delOutput Pose
- Localiza la pose que contiene la cara del MetaHuman (normalmente desde
Use cached pose 'Body Pose'
) - Añade el nodo
Blend Realistic MetaHuman Lip Sync
(el mismo nodo que el modelo realista regular) - Conecta la pose al
Source Pose
del nodoBlend Realistic MetaHuman Lip Sync
- Conecta tu variable
MoodMetaHumanLipSyncGenerator
al pinLip Sync Generator
- Conecta la salida del nodo
Blend Realistic MetaHuman Lip Sync
al pinResult
delOutput Pose
Nota: El modelo habilitado para estados de ánimo utiliza el mismo nodo de Animation Blueprint que el modelo realista regular. La funcionalidad de estado de ánimo se maneja internamente por el generador.
Próximos Pasos
Ahora que has completado la configuración básica del Animation Blueprint, necesitarás configurar el procesamiento de entrada de audio para alimentar datos de audio a tu generador de lip sync.
Continúa con la Guía de Procesamiento de Audio para aprender cómo configurar diferentes métodos de entrada de audio, incluyendo captura de micrófono, texto a voz y procesamiento de archivos de audio. Para opciones de configuración avanzada y ajustes finos, consulta la Guía de Configuración.