Resumen

Runtime MetaHuman Lip Sync es un complemento que permite la sincronización labial en tiempo real, sin conexión y multiplataforma tanto para personajes MetaHuman como personalizados. Te permite animar los labios de un personaje en respuesta a una entrada de audio de varias fuentes, incluyendo:
- Entrada de micrófono a través de la onda de sonido capturable de Runtime Audio Importer
- Voz sintetizada desde Runtime Text To Speech o Runtime AI Chatbot Integrator
- Cualquier dato de audio en formato PCM float (un array de muestras de punto flotante)
El complemento genera internamente visemas (representaciones visuales de fonemas) basándose en la entrada de audio. Dado que funciona directamente con datos de audio en lugar de texto, el complemento admite entrada multilingüe incluyendo, pero no limitado a, inglés, español, francés, alemán, japonés, chino, coreano, ruso, italiano, portugués, árabe e hindi. Literalmente, cualquier idioma es compatible ya que la sincronización labial se genera a partir de fonemas de audio en lugar de un procesamiento de texto específico del idioma.
El Modelo Estándar produce 14 visemas y realiza la animación de sincronización labial utilizando un activo de pose predefinido. En contraste, los Modelos Realistas (exclusivos para personajes MetaHuman) generan 81 cambios de control facial sin depender de un activo de pose predefinido, lo que resulta en animaciones faciales significativamente más realistas.
Compatibilidad de Personajes
A pesar de su nombre, Runtime MetaHuman Lip Sync funciona con una amplia gama de personajes más allá de los MetaHumans:
Sistemas de Personajes Comerciales Populares
- Personajes Daz Genesis 8/9
- Personajes Reallusion Character Creator 3/4 (CC3/CC4)
- Personajes Mixamo
- Avatares ReadyPlayerMe
Soporte para Estándares de Animación
- Sistemas de blendshapes basados en FACS
- Estándar de blendshapes Apple ARKit
- Conjuntos de fonemas Preston Blair
- Sistemas de fonemas de 3ds Max
- Cualquier personaje con objetivos de morph personalizados para expresiones faciales
Para instrucciones detalladas sobre cómo usar el complemento con personajes que no son MetaHuman, consulta la Guía de Configuración de Personajes Personalizados.
Vista Previa de Animación
Echa un vistazo a estas animaciones cortas para ver la calidad de la animación de sincronización labial producida por el complemento en diferentes tipos de personajes y modelos:




Características Principales
- Sincronización de labios en tiempo real desde entrada de micrófono
- Soporte para procesamiento de audio sin conexión
- Compatibilidad multiplataforma con soporte específico de plataforma para modelos
- Soporte para múltiples sistemas de personajes y estándares de animación
- Mapeo de visemas flexible para personajes personalizados
- Soporte de idioma universal: funciona con cualquier idioma hablado mediante análisis de audio
- Animación facial consciente del estado de ánimo para una mayor expresividad
- Tipos de salida configurables (controles de cara completa o solo boca)
Modelos de Sincronización de Labios
El complemento ofrece múltiples modelos de sincronización de labios para adaptarse a las diferentes necesidades del proyecto:
- Modelo Estándar
- Modelo Realista
- Modelo Realista con Estado de Ánimo
El modelo de sincronización de labios estándar proporciona un rendimiento eficiente y multiplataforma con amplia compatibilidad de personajes:
- Funciona con MetaHumans y todos los tipos de personajes personalizados
- Optimizado para rendimiento en tiempo real
- Requisitos de recursos más bajos
- Compatibilidad completa con TTS local (complemento Runtime Text To Speech)
- Soporte de Plataforma: Windows, Android, plataformas basadas en Android (incluyendo Meta Quest)
Para usar el Modelo Estándar, necesitas instalar un complemento de extensión adicional. Consulta la sección de requisitos previos para obtener instrucciones de instalación.
El modelo de sincronización de labios realista ofrece una fidelidad visual mejorada específicamente para personajes MetaHuman:
- Exclusivo para MetaHuman con animación facial avanzada (81 controles faciales)
- Mayor calidad visual con movimientos de boca más naturales
- Requisitos de rendimiento ligeramente superiores
- Soporte limitado para TTS local (se recomiendan servicios TTS externos)
- Ideal para experiencias cinemáticas e interacciones de personajes en primer plano
- Soporte de Plataforma: Windows, Mac, iOS, Linux
- Tres niveles de optimización: Original, Semi-Optimizado y Altamente Optimizado
El Modelo Realista está incluido en el complemento principal y no requiere ninguna extensión adicional para su uso.
El modelo realista con estado de ánimo proporciona animación facial consciente de las emociones para personajes MetaHuman:
- Exclusivo para MetaHuman con animación facial sensible al estado de ánimo
- 12 tipos diferentes de estados de ánimo (Neutral, Feliz, Triste, Seguro, etc.)
- Intensidad del estado de ánimo configurable (0.0 a 1.0)
- Tiempo de anticipación ajustable para una mejor sincronización (20ms a 200ms)
- Tipos de salida seleccionables: controles de Cara Completa o Solo Boca
- Procesamiento de audio en streaming para aplicaciones en tiempo real
- Soporte de Plataforma: Windows, Mac, iOS, Linux
El Modelo con Estado de Ánimo incluye características avanzadas como tiempo de anticipación configurable y control de salida selectivo, lo que lo hace ideal para aplicaciones que requieren control de expresión emocional.
Puedes elegir el modelo apropiado según los requisitos de tu proyecto para rendimiento, compatibilidad de personajes, calidad visual, plataforma objetivo y necesidades de características.
Si bien todos los modelos admiten varios métodos de entrada de audio, el modelo Realista regular tiene compatibilidad limitada con TTS local debido a conflictos del tiempo de ejecución ONNX. Sin embargo, el modelo Realista con Estados de Ánimo es totalmente compatible con TTS local. Para la funcionalidad de texto a voz:
- Modelo Estándar: Compatible con todas las opciones TTS (local y externa)
- Modelo Realista: Servicios TTS externos recomendados (OpenAI, ElevenLabs)
- Modelo Realista con Estados de Ánimo: Compatible con todas las opciones TTS (local y externa)
Cómo Funciona
El complemento procesa la entrada de audio de la siguiente manera:
- Los datos de audio se reciben en formato PCM flotante con canales y frecuencia de muestreo especificados
- El complemento procesa el audio para generar datos de control facial o visemas dependiendo del modelo
- Para los modelos con estados de ánimo, se aplica contexto emocional a la animación facial
- Los datos de animación impulsan los movimientos faciales del personaje en tiempo real
Inicio Rápido
Aquí tienes una configuración básica para habilitar la sincronización labial en tu personaje:
- Para personajes MetaHuman, sigue la Guía de Configuración
- Para personajes personalizados, sigue la Guía de Configuración de Personajes Personalizados
- Elige y configura tu modelo de sincronización labial preferido
- Configura el procesamiento de entrada de audio en tu Blueprint
- Conecta el nodo de sincronización labial apropiado en el Animation Blueprint
- ¡Reproduce audio y ve a tu personaje hablar con emoción!
Recursos Adicionales
📦 Descargas y Enlaces
- Consíguelo en Fab
- Sitio web del producto
- Descargar Demo (Windows)
- Descargar archivos fuente de la Demo (UE 5.6) – Requiere este complemento + Runtime Audio Importer, opcional: Text To Speech / AI Chatbot. El modelo estándar requiere un pequeño complemento de extensión (ver aquí)
🎥 Tutoriales en Video
Demo Destacada:
Tutoriales del Modelo Realista (Alta Calidad):
- Sincronización Labial de Alta Calidad con Control de Estado de Ánimo y TTS Local ⭐ NUEVO
- Sincronización Labial de Alta Calidad con ElevenLabs y OpenAI TTS
- Sincronización Labial en Tiempo Real con Micrófono de Alta Calidad
Tutoriales del Modelo Estándar:
- Sincronización Labial en Tiempo Real con Micrófono Estándar
- Sincronización Labial Estándar con Texto a Voz Local
- Sincronización Labial Estándar con ElevenLabs y OpenAI TTS
Configuración General:
💬 Soporte
- Servidor de soporte en Discord
- Desarrollo Personalizado: [email protected] (soluciones a medida para equipos y organizaciones)