Обзор

Runtime MetaHuman Lip Sync — это плагин, который обеспечивает синхронизацию губ в реальном времени, офлайн и кроссплатформенно как для MetaHuman, так и для пользовательских персонажей. Он позволяет анимировать губы персонажа в ответ на аудиовход из различных источников, включая:
- Вход с микрофона через захватываемую звуковую волну от Runtime Audio Importer
- Синтезированную речь от Runtime Text To Speech или Runtime AI Chatbot Integrator
- Любые аудиоданные в формате float PCM (массив сэмплов с плавающей запятой)
Плагин внутренне генерирует виземы (визуальные представления фонем) на основе аудиовхода. Поскольку он работает напрямую с аудиоданными, а не с текстом, плагин поддерживает многоязычный ввод, включая, но не ограничиваясь: английским, испанским, французским, немецким, японским, китайским, корейским, русским, итальянским, португальским, арабским и хинди. Фактически поддерживается любой язык, так как синхронизация губ генерируется из аудиофонем, а не из обработки специфичного для языка текста.
Стандартная модель производит 14 визем и выполняет анимацию синхронизации губ, используя предопределенный ассет поз. В отличие от нее, Реалистичные модели (эксклюзивно для персонажей MetaHuman) генерируют 81 изменение лицевого контроля без использования предопределенного ассета поз, что приводит к значительно более реалистичной лицевой анимации.
Совместимость персонажей
Несмотря на название, Runtime MetaHuman Lip Sync работает с широким спектром персонажей, а не только с MetaHumans:
Популярные коммерческие системы персонажей
- Персонажи Daz Genesis 8/9
- Персонажи Reallusion Character Creator 3/4 (CC3/CC4)
- Персонажи Mixamo
- Аватары ReadyPlayerMe
Поддержка стандартов анимации
- Системы блендшейпов на основе FACS
- Стандарт блендшейпов Apple ARKit
- Наборы фонем Preston Blair
- Фонемные системы 3ds Max
- Любой персонаж с пользовательскими морф-таргетами для лицевых выражений
Подробные инструкции по использованию плагина с персонажами, не являющимися MetaHuman, смотрите в Руководстве по настройке пользовательских персонажей.
Предпросмотр анимации
Ознакомьтесь с этими короткими анимациями, чтобы увидеть качество анимации синхронизации губ, создаваемой плагином для различных типов персонажей и моделей:




Ключевые особенности
- Синхронизация губ в реальном времени с входного сигнала микрофона
- Поддержка обработки аудио в офлайн-режиме
- Кросс-платформенная совместимость с поддержкой специфичных для модели платформ
- Поддержка нескольких систем персонажей и стандартов анимации
- Гибкое сопоставление визем для пользовательских персонажей
- Универсальная поддержка языков - работает с любым разговорным языком через анализ аудио
- Мимическая анимация с учетом настроения для улучшенной выразительности
- Настраиваемые типы вывода (полное лицо или только управление ртом)
Модели синхронизации губ
Плагин предлагает несколько моделей синхронизации губ для различных потребностей проекта:
- Стандартная модель
- Реалистичная модель
- Реалистичная модель с поддержкой настроения
Стандартная модель синхронизации губ обеспечивает эффективную, кросс-платформенную производительность с широкой совместимостью персонажей:
- Работает с MetaHumans и всеми типами пользовательских персонажей
- Оптимизирована для производительности в реальном времени
- Меньшие требования к ресурсам
- Полная совместимость с локальным TTS (плагин Runtime Text To Speech)
- Поддерживаемые платформы: Windows, Android, платформы на базе Android (включая Meta Quest)
Для использования Стандартной модели необходимо установить дополнительный плагин-расширение. См. инструкции по установке в разделе Предварительные требования.
Реалистичная модель синхронизации губ обеспечивает улучшенную визуальную точность специально для персонажей MetaHuman:
- Эксклюзивно для MetaHuman с расширенной мимической анимацией (81 элемент управления лицом)
- Более высокое визуальное качество с более естественными движениями рта
- Несколько более высокие требования к производительности
- Ограниченная поддержка локального TTS (рекомендуются внешние TTS-сервисы)
- Идеально для кинематографических сцен и взаимодействий с персонажами крупным планом
- Поддерживаемые платформы: Windows, Mac, iOS, Linux
- Три уровня оптимизации: Original, Semi-Optimized и Highly Optimized
Реалистичная модель включена в основной плагин и не требует дополнительных расширений для использования.
Реалистичная модель с поддержкой настроения обеспечивает мимическую анимацию с учетом эмоций для персонажей MetaHuman:
- Эксклюзивно для MetaHuman с мимической анимацией, реагирующей на настроение
- 12 различных типов настроения (Neutral, Happy, Sad, Confident и т.д.)
- Настраиваемая интенсивность настроения (от 0.0 до 1.0)
- Регулируемое время упреждения для улучшенной синхронизации (от 20мс до 200мс)
- Выбираемые типы вывода: Full Face или Mouth Only controls
- Потоковая обработка аудио для приложений реального времени
- Поддерживаемые платформы: Windows, Mac, iOS, Linux
Модель с поддержкой настроения включает расширенные функции, такие как настраиваемое время упрежд и селективного управления выводом, что делает его идеальным для приложений, требующих контроля эмоциональной экспрессии.
Вы можете выбрать подходящую модель в зависимости от требований вашего проекта к производительности, совместимости с персонажами, визуальному качеству, целевой платформе и необходимым функциям.
Хотя все модели поддерживают различные методы аудиоввода, обычная модель Realistic имеет ограниченную совместимость с локальным TTS из-за конфликтов с рантаймом ONNX. Однако модель Mood-Enabled Realistic полностью совместима с локальным TTS. Для функциональности преобразования текста в речь:
- Standard Model: Совместима со всеми вариантами TTS (локальными и внешними)
- Realistic Model: Рекомендуются внешние сервисы TTS (OpenAI, ElevenLabs)
- Mood-Enabled Realistic Model: Совместима со всеми вариантами TTS (локальными и внешними)
Как это работает
Плагин обрабатывает аудиоввод следующим образом:
- Аудиоданные принимаются в формате PCM с плавающей запятой с указанными каналами и частотой дискретизации
- Плагин обрабатывает аудио для генерации данных управления лицевой мимикой или визем в зависимости от модели
- Для моделей с поддержкой настроения эмоциональный контекст применяется к лицевой анимации
- Данные анимации управляют движениями лица персонажа в реальном времени
Быстрый старт
Вот базовая настройка для включения lip sync на вашем персонаже:
- Для персонажей MetaHuman следуйте Руководству по настройке
- Для пользовательских персонажей следуйте Руководству по настройке пользовательских персонажей
- Выберите и настройте предпочитаемую модель lip sync
- Настройте обработку аудиоввода в вашем Blueprint
- Подключите соответствующий узел lip sync в Animation Blueprint
- Воспроизведите аудио и увидите, как ваш персонаж говорит с эмоциями!
Дополнительные ресурсы
📦 Загрузки и ссылки
- Получить на Fab
- Веб-сайт продукта
- Скачать демо (Windows)
- Скачать исходные файлы демо (UE 5.6) – Требуется этот плагин + Runtime Audio Importer, опционально: Text To Speech / AI Chatbot. Стандартная модель требует небольшой плагин-расширение (см. здесь)
🎥 Видеоуроки
Рекомендуемое демо:
Уроки по Реалистичной Модели (Высокое Качество):
- Высококачественная синхронизация губ с контролем настроения и локальным TTS ⭐ НОВОЕ
- Высококачественная синхронизация губ с ElevenLabs и OpenAI TTS
- Высококачественная синхронизация губ с живым микрофоном
Уроки по Стандартной Модели:
- Стандартная синхронизация губ с живым микрофоном
- Стандартная синхронизация губ с локальным преобразованием текста в речь
- Стандартная синхронизация губ с ElevenLabs и OpenAI TTS
Общая Настройка:
💬 Поддержка
- Discord сервер поддержки
- Кастомная разработка: [email protected] (индивидуальные решения для команд и организаций)