Saltar al contenido principal

Resumen

Documentación de Runtime MetaHuman Lip Sync

Runtime MetaHuman Lip Sync es un plugin que habilita la sincronización labial en tiempo real, sin conexión y multiplataforma tanto para personajes MetaHuman como personalizados. Te permite animar los labios de un personaje en respuesta a una entrada de audio de varias fuentes, incluyendo:

El plugin genera internamente visemas (representaciones visuales de fonemas) basándose en la entrada de audio. Dado que funciona directamente con datos de audio en lugar de texto, el plugin admite entrada multilingüe incluyendo, entre otros, inglés, español, francés, alemán, japonés, chino, coreano, ruso, italiano, portugués, árabe e hindi. Literalmente, cualquier idioma es compatible, ya que la sincronización labial se genera a partir de fonemas de audio en lugar de un procesamiento de texto específico del idioma.

El Modelo Estándar produce 14 visemas y realiza la animación de sincronización labial utilizando un activo de pose predefinido. En contraste, los Modelos Realistas (exclusivos para personajes MetaHuman) generan 81 cambios de control facial sin depender de un activo de pose predefinido, lo que resulta en animaciones faciales significativamente más realistas.

Compatibilidad de Personajes

A pesar de su nombre, Runtime MetaHuman Lip Sync funciona con una amplia gama de personajes más allá de los MetaHumans:

Sistemas de Personajes Comerciales Populares

  • Personajes Daz Genesis 8/9
  • Personajes Reallusion Character Creator 3/4 (CC3/CC4)
  • Personajes Mixamo
  • Avatares ReadyPlayerMe

Soporte de Estándares de Animación

  • Sistemas de blendshapes basados en FACS
  • Estándar de blendshapes Apple ARKit
  • Conjuntos de fonemas Preston Blair
  • Sistemas de fonemas 3ds Max
  • Cualquier personaje con morph targets personalizados para expresiones faciales

Para instrucciones detalladas sobre cómo usar el plugin con personajes que no son MetaHuman, consulta la Guía de Configuración de Personajes Personalizados.

Vista Previa de Animación

Echa un vistazo a estas animaciones cortas para ver la calidad de la animación de sincronización labial producida por el plugin en diferentes tipos de personajes y modelos:

Modelo realista con personaje MetaHuman
Modelo estándar con personaje MetaHuman
Modelo estándar con personaje personalizado
Modelo estándar con personaje personalizado

Características Clave

  • Sincronización labial en tiempo real desde entrada de micrófono
  • Soporte para procesamiento de audio sin conexión
  • Compatibilidad multiplataforma con soporte específico por plataforma para modelos
  • Soporte para múltiples sistemas de personajes y estándares de animación
  • Mapeo flexible de visemas para personajes personalizados
  • Soporte de idioma universal: funciona con cualquier idioma hablado mediante análisis de audio
  • Animación facial consciente del estado de ánimo para mayor expresividad
  • Tipos de salida configurables (cara completa o solo controles de boca)

Modelos de Sincronización Labial

El plugin ofrece múltiples modelos de sincronización labial para adaptarse a las diferentes necesidades del proyecto:

El modelo de sincronización labial estándar proporciona un rendimiento eficiente y multiplataforma con amplia compatibilidad de personajes:

  • Funciona con MetaHumans y todo tipo de personajes personalizados
  • Optimizado para rendimiento en tiempo real
  • Requisitos de recursos más bajos
  • Soporte de Plataforma: Windows, Android, plataformas basadas en Android (incluyendo Meta Quest)
Extensión de Plugin Requerida

Para usar el Modelo Estándar, necesitas instalar un plugin de extensión adicional. Consulta la sección de Prerrequisitos para instrucciones de instalación.

Puedes elegir el modelo apropiado según los requisitos de tu proyecto en cuanto a rendimiento, compatibilidad de personajes, calidad visual, plataforma objetivo y necesidades de características.

Cómo Funciona

El plugin procesa la entrada de audio de la siguiente manera:

  1. Los datos de audio se reciben en formato PCM de punto flotante con canales y frecuencia de muestreo especificados
  2. El plugin procesa el audio para generar datos de control facial o visemas dependiendo del modelo
  3. Para los modelos con estado de ánimo, se aplica el contexto emocional a la animación facial
  4. Los datos de animación impulsan los movimientos faciales del personaje en tiempo real

Arquitectura de Rendimiento

Runtime MetaHuman Lip Sync utiliza inferencia solo por CPU para ofrecer resultados de sincronización labial consistentes y de baja latencia, adecuados para aplicaciones en tiempo real. Por defecto, el plugin realiza el procesamiento de sincronización labial cada 10 milisegundos (ajustable - ver Configuración del Plugin para todos los ajustes disponibles, incluyendo Tamaño del Fragmento de Procesamiento, número de hilos, y otros parámetros de rendimiento).

Descripción General de la Arquitectura del Modelo

Los modelos de sincronización labial utilizan una red neuronal compacta basada en transformadores que procesa el audio mediante análisis de mel-espectrograma. Esta arquitectura ligera está diseñada específicamente para rendimiento en tiempo real con inferencia eficiente en CPU y una huella de memoria mínima.

¿Por Qué Inferencia por CPU?

Para operaciones de inferencia pequeñas y frecuentes como la sincronización labial en tiempo real, el procesamiento por CPU ofrece mejores características de latencia que la GPU. Con un tamaño de lote de 1 e intervalos de inferencia de 10-100ms, la sobrecarga de la GPU por transferencias PCIe y lanzamientos de kernel a menudo excede el tiempo real de cómputo. Además, en los motores de juego la GPU ya está saturada con renderizado, shaders y física, creando contención de recursos que introduce picos de latencia impredecibles.

Compatibilidad de Hardware

El plugin funciona eficientemente en la mayoría de las CPU de gama media y superior sin requerir hardware gráfico dedicado, proporcionando rendimiento en tiempo real en plataformas de escritorio, móviles y de realidad virtual. Para hardware más débil, puedes ajustar el Tipo de Modelo a Semi-Optimizado o Altamente Optimizado, o aumentar el Tamaño del Fragmento de Procesamiento para mantener el rendimiento en tiempo real con una capacidad de respuesta ligeramente reducida.

Inicio Rápido

Aquí tienes una configuración básica para habilitar la sincronización labial en tu personaje:

  1. Para personajes MetaHuman, sigue la Guía de Configuración
  2. Para personajes personalizados, sigue la Guía de Configuración de Personajes Personalizados
  3. Elige y configura tu modelo de sincronización labial preferido
  4. Configura el procesamiento de entrada de audio en tu Blueprint
  5. Conecta el nodo de sincronización labial apropiado en el Animation Blueprint
  6. ¡Reproduce audio y observa a tu personaje hablar con emoción!

Recursos Adicionales

📦 Descargas y Enlaces

Proyectos de Demostración:

🎥 Tutoriales en Video

Demostraciones Destacadas:

Tutoriales del Modelo Realista (Alta Calidad):

Tutoriales del Modelo Estándar:

Configuración General:

💬 Soporte