Перейти к основному содержимому

Конфигурация плагина

Конфигурация модели

Стандартная конфигурация модели

Узел Create Runtime Viseme Generator использует настройки по умолчанию, которые хорошо работают в большинстве сценариев. Конфигурация обрабатывается через свойства узла смешивания Animation Blueprint.

Для параметров конфигурации Animation Blueprint см. раздел Конфигурация Lip Sync ниже.

Конфигурация реалистичной модели

Узел Create Realistic MetaHuman Lip Sync Generator принимает необязательный параметр Configuration, который позволяет настраивать поведение генератора:

Тип модели

Настройка Model Type определяет, какую версию реалистичной модели использовать:

Тип моделиПроизводительностьВизуальное качествоОбработка шумаРекомендуемые случаи использования
Высокооптимизированная (По умолчанию)Наивысшая производительность, наименьшее использование ЦПХорошее качествоМожет показывать заметные движения рта при фоновом шуме или неголосовых звукахЧистые аудиоокружения, сценарии, критичные к производительности
ПолуоптимизированнаяХорошая производительность, умеренное использование ЦПВысокое качествоЛучшая стабильность с шумным аудиоСбалансированная производительность и качество, смешанные аудиоусловия
ОригинальнаяПодходит для использования в реальном времени на современных ЦПНаивысшее качествоНаиболее стабильная с фоновым шумом и неголосовыми звукамиВысококачественные постановки, шумные аудиоокружения, когда требуется максимальная точность

Настройки производительности

Intra Op Threads: Управляет количеством потоков, используемых для внутренних операций обработки модели.

  • 0 (По умолчанию/Автоматически): Использует автоматическое обнаружение (обычно 1/4 доступных ядер ЦП, максимум 4)
  • 1-16: Указать количество потоков вручную. Более высокие значения могут улучшить производительность на многопроцессорных системах, но используют больше ЦП

Inter Op Threads: Управляет количеством потоков, используемых для параллельного выполнения различных операций модели.

  • 0 (По умолчанию/Автоматически): Использует автоматическое обнаружение (обычно 1/8 доступных ядер ЦП, максимум 2)
  • 1-8: Указать количество потоков вручную. Обычно сохраняется низким для обработки в реальном времени

Размер чанка обработки

Processing Chunk Size определяет, сколько сэмплов обрабатывается на каждом шаге вывода. Значение по умолчанию — 160 сэмплов (10 мс аудио при 16 кГц):

  • Меньшие значения обеспечивают более частые обновления, но увеличивают использование ЦП
  • Большие значения снижают нагрузку на ЦП, но могут уменьшить отзывчивость синхронизации губ
  • Рекомендуется использовать кратные 160 для оптимального выравнивания

Установка размера чанк�а обработки

Конфигурация модели с поддержкой настроения

Узел Create Realistic MetaHuman Lip Sync With Mood Generator предоставляет дополнительные параметры конфигурации помимо базовой реалистичной модели:

Базовая конфигурация

Lookahead Ms: Время упреждения в миллисекундах для повышения точности синхронизации губ.

  • По умолчанию: 80 мс
  • Диапазон: от 20 мс до 200 мс (должно быть кратно 20)
  • Более высокие значения обеспечивают лучшую синхронизацию, но увеличивают задержку

Output Type: Определяет, какие лицевые контролы генерируются.

  • Full Face: Все 81 контрол лица (брови, глаза, нос, рот, челюсть, язык)
  • Mouth Only: Только контролы, связанные с ртом, челюстью и языком

Performance Settings: Использует те же настройки Intra Op Threads и Inter Op Threads, что и обычная реалистичная модель.

Настройки Настроения

Доступные Настроения:

  • Нейтральное, Счастливое, Грустное, Отвращение, Гнев, Удивление, Страх
  • Уверенное, Взволнованное, Скучающее, Игривое, Растерянное

Mood Intensity: Определяет, насколько сильно настроение влияет на анимацию (от 0.0 до 1.0)

Управление Настроением во Время Выполнения

Вы можете настраивать параметры настроения во время выполнения с помощью следующих функций:

  • Set Mood: Изменить текущий тип настроения
  • Set Mood Intensity: Настроить, насколько сильно настроение влияет на анимацию (от 0.0 до 1.0)
  • Set Lookahead Ms: Изменить время упреждения для синхронизации
  • Set Output Type: Переключиться между контролами Full Face и Mouth Only

Конфигурация Настроения

Руководство по Выбору Настроения

Выбирайте подходящие настроения в зависимости от вашего контента:

НастроениеЛучше всего подходит дляТипичный диапазон интенсивности
НейтральноеОбщая беседа, повествование, состояние по умолчанию0.5 - 1.0
СчастливоеПозитивный контент, радостные диалоги, празднования0.6 - 1.0
ГрустноеМеланхоличный контент, эмоциональные сцены, мрачные моменты0.5 - 0.9
ОтвращениеНегативные реакции, неприятный контент, отвержение0.4 - 0.8
ГневАгрессивные диалоги, конфронтационные сцены, разочарование0.6 - 1.0
УдивлениеНеожиданные события, откровения, реакции шока0.7 - 1.0
СтрахУгрожающие ситуации, тревога, нервные диалоги0.5 - 0.9
УверенноеПрофессиональные презентации, лидерские диалоги, уверенная речь0.7 - 1.0
ВзволнованноеЭнергичный контент, объявления, восторженные диалоги0.8 - 1.0
СкучающееМонотонный контент, незаинтересованные диалоги, уставшая речь0.3 - 0.7
ИгривоеНеформальная беседа, юмор, легкие взаимодействия0.6 - 0.9
РастерянноеДиалоги с большим количеством вопросов, неопределенность, недоумение0.4 - 0.8

Конфигурация Animation Blueprint

Конфигурация Синхронизации Губ

Узел Blend Runtime MetaHuman Lip Sync имеет параметры конфигурации на панели свойств:

СвойствоПо умолчаниюОписание
Interpolation Speed25Управляет скоростью перехода движений губ между висемами. Более высокие значения приводят к более быстрым и резким переходам.
Reset Time0.2Продолжительность в секундах, после которой синхронизация губ сбрасывается. Это полезно для предотвращения продолжения синхронизации губ после остановки аудио.

Анимация смеха

Вы также можете добавить анимации смеха, которые будут динамически реагировать на смех, обнаруженный в аудио:

  1. Добавьте узел Blend Runtime MetaHuman Laughter
  2. Подключите вашу переменную RuntimeVisemeGenerator к контакту Viseme Generator
  3. Если вы уже используете синхронизацию губ:
    • Подключите выход из узла Blend Runtime MetaHuman Lip Sync к контакту Source Pose узла Blend Runtime MetaHuman Laughter
    • Подключите выход узла Blend Runtime MetaHuman Laughter к контакту Result узла Output Pose
  4. Если используется только смех без синхронизации губ:
    • Подключите вашу исходную позу напрямую к контакту Source Pose узла Blend Runtime MetaHuman Laughter
    • Подключите выход к контакту Result

Blend Runtime MetaHuman Laughter

Когда в аудио обнаруживается смех, ваш персонаж будет динамически анимироваться соответствующим образом:

Laughter

Конфигурация смеха

Узел Blend Runtime MetaHuman Laughter имеет свои собственные параметры конфигурации:

СвойствоПо умолчаниюОписание
Interpolation Speed25Управляет скоростью перехода движений губ между анимациями смеха. Более высокие значения приводят к более быстрым и резким переходам.
Reset Time0.2Продолжительность в секундах, после которой смех сбрасывается. Это полезно для предотвращения продолжения смеха после остановки аудио.
Max Laughter Weight0.7Масштабирует максимальную интенсивность анимации смеха (0.0 - 1.0).

Примечание: Обнаружение смеха в настоящее время доступно только в Standard Model.

Комбинирование с существующей анимацией

Чтобы применять синхронизацию губ и смех вместе с существующими анимациями тела и пользовательскими анимациями лица без их перезаписи:

  1. Добавьте узел Layered blend per bone между вашими анимациями тела и конечным выводом. Убедитесь, что Use Attached Parent установлен в true.
  2. Настройте структуру слоев:
    • Добавьте 1 элемент в массив Layer Setup
    • Добавьте 3 элемента в Branch Filters для слоя со следующими именами Bone Name:
      • FACIAL_C_FacialRoot
      • FACIAL_C_Neck2Root
      • FACIAL_C_Neck1Root
  3. Важно для пользовательских анимаций лица: В Curve Blend Option выберите "Use Max Value". Это позволяет правильно накладывать пользовательские анимации лица (выражения, эмоции и т.д.) поверх синхронизации губ.
  4. Сделайте соединения:
    • Существующие анимации (такие как BodyPose) → вход Base Pose
    • Выход лицевой анимации (из узлов синхронизации губ и/или смеха) → вход Blend Poses 0
    • Узел Layered blend → конечная поза Result

Layered Blend Per Bone

Тонкая настройка поведения синхронизации губ

Управление высовыванием языка

В стандартной модели синхронизации губ вы можете заметить чрезмерное движение языка вперед во время определенных фонем. Для контроля выдвижения языка:

  1. После вашего узла смешивания синхронизации губ добавьте узел Modify Curve
  2. Щелкните правой кнопкой мыши на узле Modify Curve и выберите Add Curve Pin
  3. Добавьте контакт кривой с именем CTRL_expressions_tongueOut
  4. Установите свойство Apply Mode узла в значение Scale
  5. Отрегулируйте параметр Value, чтобы контролировать выдвижение языка (например, 0.8 для уменьшения выдвижения на 20%)

Управление открытием челюсти

Реалистичная синхронизация губ может создавать чрезмерно отзывчивые движения челюсти в зависимости от вашего аудиоконтента и визуальных требований. Чтобы настроить интенсивность открытия челюсти:

  1. После вашего узла смешивания синхронизации губ добавьте узел Modify Curve
  2. Щелкните правой кнопкой мыши на узле Modify Curve и выберите Add Curve Pin
  3. Добавьте контакт кривой с именем CTRL_expressions_jawOpen
  4. Установите свойство Apply Mode узла в значение Scale
  5. Отрегулируйте параметр Value, чтобы контролировать диапазон открытия челюсти (например, 0.9 для уменьшения движения челюсти на 10%)

Тонкая настройка для конкретного настроения

Для моделей с поддержкой настроения вы можете точно настраивать определенные эмоциональные выражения:

Управление бровями:

  • CTRL_expressions_browRaiseInL / CTRL_expressions_browRaiseInR - Поднятие внутренней части брови
  • CTRL_expressions_browRaiseOuterL / CTRL_expressions_browRaiseOuterR - Поднятие внешней части брови
  • CTRL_expressions_browDownL / CTRL_expressions_browDownR - Опускание брови

Управление выражением глаз:

  • CTRL_expressions_eyeSquintInnerL / CTRL_expressions_eyeSquintInnerR - Прищуривание глаз
  • CTRL_expressions_eyeCheekRaiseL / CTRL_expressions_eyeCheekRaiseR - Поднятие щеки

Сравнение и выбор модели

Выбор между моделями

При принятии решения о том, какую модель синхронизации губ использовать для вашего проекта, учитывайте следующие факторы:

КритерийСтандартная модельРеалистичная модельРеалистичная модель с поддержкой настроения
Совместимость с персонажамиMetaHumans и все типы пользовательских персонажейТолько MetaHumansТолько MetaHumans
Визуальное качествоХорошая синхронизация губ с эффективной производительностьюУлучшенный реализм с более естественными движениями ртаУлучшенный реализм с эмоциональными выражениями
ПроизводительностьОптимизирована для всех платформ, включая мобильные/VRБолее высокие требования к ресурсамБолее высокие требования к ресурсам
Функции14 визем, обнаружение смеха81 контроль лица, 3 уровня оптимизации81 контроль лица, 12 настроений, настраиваемый вывод
Поддержка платформWindows, Android, QuestWindows, Mac, iOS, LinuxWindows, Mac, iOS, Linux
Случаи использованияОбщие приложения, игры, VR/AR, мобильныеКинематографические впечатления, взаимодействия крупным планомЭмоциональное повествование, продвинутое взаимодействие с персонажами

Совместимость с версиями движка

Проблема совместимости с UE 5.2

Если вы используете Unreal Engine 5.2, реалистичные модели могут работать некорректно из-за ошибки в библиотеке ресемплинга UE. Пользователям UE 5.2, которым требуется надежная функция синхронизации губ, рекомендуется использовать Стандартную Модель.

Эта проблема характерна только для UE 5.2 и не затрагивает другие версии движка.

Рекомендации по производительности

  • Для большинства проектов Стандартная Модель обеспечивает отличный баланс качества и производительности
  • Используйте Реалистичную Модель, когда вам нужна максимальная визуальная точность для персонажей MetaHuman
  • Используйте Реалистичную Модель с Настроением, когда контроль эмоциональной выразительности важен для вашего приложения
  • Учитывайте производительность целевой платформы при выборе между моделями
  • Тестируйте разные уровни оптимизации, чтобы найти наилучший баланс для вашего конкретного случая использования

Совместимость с TTS

Тип МоделиПоддержка Локального TTS (через Runtime Text To Speech)Поддержка Внешнего TTSПримечания
Стандартная Модель✅ Полная поддержка✅ Полная поддержкаСовместима со всеми вариантами TTS
Реалистичная Модель❌ Ограниченная поддержка✅ Полная поддержкаКонфликты среды выполнения ONNX с локальным TTS
Реалистичная Модель с Настроением✅ Полная поддержка✅ Полная поддержкаСовместима со всеми вариантами TTS

Устранение неполадок

Распространенные проблемы

Пересоздание генератора для реалистичных моделей: Для надежной и стабильной работы с реалистичными моделями рекомендуется пересоздавать генератор каждый раз, когда вы хотите передать новые аудиоданные после периода бездействия. Это связано с поведением среды выполнения ONNX, которая может привести к прекращению работы синхронизации губ при повторном использовании генераторов после периодов тишины.

Совместимость с локальным TTS: Локальный TTS, предоставляемый плагином Runtime Text To Speech, в настоящее время не поддерживается обычной реалистичной моделью из-за конфликтов со средой выполнения ONNX. Однако он полностью совместим как со стандартной моделью, так и с реалистичной моделью с настроением. Используйте внешние TTS-сервисы, если вам конкретно нужна обычная реалистичная модель с функциональностью TTS.

Снижение отзывчивости синхронизации губ: Если вы столкнулись с тем, что синхронизация губ со временем становится менее отзывчивой при использовании Streaming Sound Wave или Capturable Sound Wave, это может быть вызвано накоплением памяти. По умолчанию память перераспределяется каждый раз, когда добавляется новый аудио. Чтобы предотвратить эту проблему, периодически вызывайте функцию ReleaseMemory для освобождения накопленной памяти, например, каждые 30 секунд или около того.

Оптимизация производительности:

  • Настраивайте размер обрабатываемого чанка для реалистичных моделей в зависимости от ваших требований к производительности
  • Используйте подходящее количество потоков для вашего целевого оборудования
  • Рассмотрите использование типа вывода "Только Рот" для моделей с настроением, когда полная лицевая анимация не требуется