Перейти к основному содержимому

Конфигурация плагина

Конфигурация модели

Стандартная конфигурация модели

Узел Create Runtime Viseme Generator использует настройки по умолчанию, которые хорошо работают в большинстве сценариев. Конфигурация осуществляется через свойства узла смешивания Animation Blueprint.

Для опций конфигурации Animation Blueprint см. раздел Конфигурация синхронизации губ ниже.

Конфигурация реалистичной модели

Узел Create Realistic MetaHuman Lip Sync Generator принимает необязательный параметр Configuration, который позволяет настраивать поведение генератора:

Тип модели

Настройка Model Type определяет, какую версию реалистичной модели использовать:

Тип моделиПроизводительностьВизуальное качествоОбработка шумаРекомендуемые случаи использования
Высокооптимизированная (По умолчанию)Наивысшая производительность, наименьшее использование CPUХорошее качествоМожет показывать заметные движения рта при фоновом шуме или неголосовых звукахЧистые аудиоокружения, сценарии, критичные к производительности
ПолуоптимизированнаяХорошая производительность, умеренное использование CPUВысокое качествоЛучшая стабильность с шумным аудиоСбалансированная производительность и качество, смешанные аудиоусловия
ОригинальнаяПодходит для использования в реальном времени на современных CPUНаивысшее качествоНаиболее стабильна с фоновым шумом и неголосовыми звукамиВысококачественные постановки, шумные аудиоокружения, когда требуется максимальная точность

Настройки производительности

Intra Op Threads: Управляет количеством потоков, используемых для внутренних операций обработки модели.

  • 0 (По умолчанию/Автоматически): Использует автоматическое определение (обычно 1/4 доступных ядер CPU, максимум 4)
  • 1-16: Указать количество потоков вручную. Более высокие значения могут улучшить производительность на многопроцессорных системах, но используют больше CPU

Inter Op Threads: Управляет количеством потоков, используемых для параллельного выполнения различных операций модели.

  • 0 (По умолчанию/Автоматически): Использует автоматическое определение (обычно 1/8 доступных ядер CPU, максимум 2)
  • 1-8: Указать количество потоков вручную. Обычно держится на низком уровне для обработки в реальном времени

Размер чанка обработки

Processing Chunk Size определяет, сколько сэмплов обрабатывается на каждом шаге инференса. Значение по умолчанию — 160 сэмплов (10 мс аудио при 16 кГц):

  • Меньшие значения обеспечивают более частые обновления, но увеличивают использование CPU
  • Большие значения снижают нагрузку на CPU, но могут уменьшить отзывчивость синхронизации губ
  • Рекомендуется использовать кратные 160 для оптимального выравнивания

Установка размера чанка обработки

Конфигурация модели с поддержкой настроения

Узел Create Realistic MetaHuman Lip Sync With Mood Generator предоставляет дополнительные опции конфигурации помимо базовой реалистичной модели:

Базовая конфигурация

Lookahead Ms: Время упреждения в миллисекундах для улучшения точности синхронизации губ.

  • По умолчанию: 80 мс
  • Диапазон: от 20 мс до 200 мс (должно быть кратно 20)
  • Более высокие значения обеспечивают лучшую синхронизацию, но увеличивают задержку

Output Type: Управляет тем, какие лицевые контролы генерируются.

  • Full Face: Все 81 лицевых контролов (брови, глаза, нос, рот, челюсть, язык)
  • Mouth Only: Только контролы, связанные с ртом, челюстью и языком

Performance Settings: Использует те же настройки Intra Op Threads и Inter Op Threads, что и обычная реалистичная модель.

Настройки настроения

Доступные настроения:

  • Neutral, Happy, Sad, Disgust, Anger, Surprise, Fear
  • Confident, Excited, Bored, Playful, Confused

Интенсивность настроения: Управляет тем, насколько сильно настроение влияет на анимацию (от 0.0 до 1.0)

Управление настроением во время выполнения

Вы можете настраивать параметры настроения во время выполнения с помощью следующих функций:

  • Set Mood: Изменить текущий тип настроения
  • Set Mood Intensity: Настроить, насколько сильно настроение влияет на анимацию (от 0.0 до 1.0)
  • Set Lookahead Ms: Изменить время упреждения для синхронизации
  • Set Output Type: Переключиться между контролами Full Face и Mouth Only

Конфигурация настроения

Руководство по выбору настроения

Выбирайте подходящие настроения в зависимости от вашего контента:

НастроениеЛучше всего подходит дляТипичный диапазон интенсивности
NeutralОбщий разговор, повествование, состояние по умолчанию0.5 - 1.0
HappyПозитивный контент, веселый диалог, празднования0.6 - 1.0
SadМеланхоличный контент, эмоциональные сцены, мрачные моменты0.5 - 0.9
DisgustНегативные реакции, неприятный контент, отвержение0.4 - 0.8
AngerАгрессивный диалог, конфронтационные сцены, разочарование0.6 - 1.0
SurpriseНеожиданные события, откровения, реакции шока0.7 - 1.0
FearУгрожающие ситуации, тревога, нервный диалог0.5 - 0.9
ConfidentПрофессиональные презентации, диалог лидерства, уверенная речь0.7 - 1.0
ExcitedЭнергичный контент, объявления, восторженный диалог0.8 - 1.0
BoredМонотонный контент, незаинтересованный диалог, уставшая речь0.3 - 0.7
PlayfulНеформальный разговор, юмор, легкие взаимодействия0.6 - 0.9
ConfusedДиалог с множеством вопросов, неуверенность, недоумение0.4 - 0.8

Конфигурация Animation Blueprint

Конфигурация синхронизации губ

Узел Blend Runtime MetaHuman Lip Sync имеет опции конфигурации в панели свойств:

СвойствоПо умолчаниюОписание
Interpolation Speed25Управляет тем, насколько быстро движения губ переходят между висемами. Более высокие значения приводят к более быстрым и резким переходам.
Reset Time0.2Продолжительность в секундах, после которой синхронизация губ сбрасывается. Это полезно, чтобы предотвратить продолжение синхронизации губ после остановки аудио.

Анимация смеха

Вы также можете добавить анимации смеха, которые будут динамически реагировать на смех, обнаруженный в аудио:

  1. Добавьте узел Blend Runtime MetaHuman Laughter
  2. Подключите вашу переменную RuntimeVisemeGenerator к пину Viseme Generator
  3. Если вы уже используете синхронизацию губ:
    • Подключите выход из узла Blend Runtime MetaHuman Lip Sync к Source Pose узла Blend Runtime MetaHuman Laughter
    • Подключите выход узла Blend Runtime MetaHuman Laughter к пину Result Output Pose
  4. Если используется только смех без синхронизации губ:
    • Подключите вашу исходную позу напрямую к Source Pose узла Blend Runtime MetaHuman Laughter
    • Подключите выход к пину Result

Blend Runtime MetaHuman Laughter

Когда в аудио обнаруживается смех, ваш персонаж будет динамически анимироваться соответствующим образом:

Смех

Конфигурация смеха

Узел Blend Runtime MetaHuman Laughter имеет свои собственные опции конфигурации:

СвойствоПо умолчаниюОписание
Interpolation Speed25Управляет тем, насколько быстро движения губ переходят между анимациями смеха. Более высокие значения приводят к более быстрым и резким переходам.
Reset Time0.2Продолжительность в секундах, после которой смех сбрасывается. Это полезно, чтобы предотвратить продолжение смеха после остановки аудио.
Max Laughter Weight0.7Масштабирует максимальную интенсивность анимации смеха (0.0 - 1.0).

Примечание: Обнаружение смеха в настоящее время доступно только со Standard Model.

Комбинирование с существующими анимациями

Чтобы применять синхронизацию губ и смех вместе с существующими анимациями тела и пользовательскими мимическими анимациями без их переопределения:

  1. Добавьте узел Layered blend per bone между вашими анимациями тела и финальным выходом. Убедитесь, что Use Attached Parent установлен в true.
  2. Настройте слой:
    • Добавьте 1 элемент в массив Layer Setup
    • Добавьте 3 элемента в Branch Filters для слоя со следующими Bone Name:
      • FACIAL_C_FacialRoot
      • FACIAL_C_Neck2Root
      • FACIAL_C_Neck1Root
  3. Важно для пользовательских мимических анимаций: В Curve Blend Option выберите "Use Max Value". Это позволяет правильно накладывать пользовательские мимические анимации (выражения, эмоции и т.д.) поверх синхронизации губ.
  4. Сделайте соединения:
    • Существующие анимации (такие как BodyPose) → вход Base Pose
    • Выход мимической анимации (из узлов синхронизации губ и/или смеха) → вход Blend Poses 0
    • Узел Layered blend → финальная поза Result

Layered Blend Per Bone

Выбор набора морф-таргетов

Standard Model использует ассеты поз, которые по своей природе поддерживают любое соглашение об именовании морф-таргетов через настройку пользовательского ассета поз. Дополнительная конфигурация не требуется.

Тонкая настройка поведения синхронизации губ

Управление высовыванием языка

В стандартной модели синхронизации губ вы можете заметить чрезмерное выдвижение языка вперед во время определенных фонем. Чтобы контролировать высовывание языка:

  1. После вашего узла смешивания синхронизации губ добавьте узел Modify Curve
  2. Щелкните правой кнопкой мыши на узле Modify Curve и выберите Add Curve Pin
  3. Добавьте пин кривой с именем CTRL_expressions_tongueOut
  4. Установите свойство Apply Mode узла в Scale
  5. Настройте параметр Value для управления вытягиванием языка (например, 0.8 для уменьшения высовывания на 20%)

Управление открытием челюсти

Реалистичная синхронизация губ может создавать чрезмерно отзывчивые движения челюсти в зависимости от вашего аудиоконтента и визуальных требований. Чтобы настроить интенсивность открытия челюсти:

  1. После вашего узла смешивания синхронизации губ добавьте узел Modify Curve
  2. Щелкните правой кнопкой мыши на узле Modify Curve и выберите Add Curve Pin
  3. Добавьте пин кривой с именем CTRL_expressions_jawOpen
  4. Установите свойство Apply Mode узла в Scale
  5. Настройте параметр Value для управления диапазоном открытия челюсти (например, 0.9 для уменьшения движения челюсти на 10%)

Тонкая настройка для конкретных настроений

Для моделей с поддержкой настроения вы можете точно настраивать определенные эмоциональные выражения:

Управление бровями:

  • CTRL_expressions_browRaiseInL / CTRL_expressions_browRaiseInR - Поднятие внутренней части брови
  • CTRL_expressions_browRaiseOuterL / CTRL_expressions_browRaiseOuterR - Поднятие внешней части брови
  • CTRL_expressions_browDownL / CTRL_expressions_browDownR - Опускание брови

Управление выражением глаз:

  • CTRL_expressions_eyeSquintInnerL / CTRL_expressions_eyeSquintInnerR - Прищуривание глаз
  • CTRL_expressions_eyeCheekRaiseL / CTRL_expressions_eyeCheekRaiseR - Поднятие щеки

Сравнение моделей и выбор

Выбор между моделями

При решении, какую модель синхронизации губ использовать для вашего проекта, учитывайте эти факторы:

КритерийStandard ModelRealistic ModelMood-Enabled Realistic Model
Совместимость с персонажамиMetaHumans и все типы пользовательских персонажейПерсонажи MetaHumans (и ARKit)Персонажи MetaHumans (и ARKit)
Визуальное качествоХорошая синхронизация губ с эффективной производительностьюУлучшенный реализм с более естественными движениями ртаУлучшенный реализм с эмоциональными выражениями
ПроизводительностьОптимизирована для всех платформ, включая мобильные/VRБолее высокие требования к ресурсамБолее высокие требования к ресурсам
Функции14 висем, обнаружение смеха81 лицевых контролов, 3 уровня оптимизации81 лицевых контролов, 12 настроений, настраиваемый вывод
Поддержка платформWindows, Android, QuestWindows, Mac, iOS, Linux, Android, QuestWindows, Mac, iOS, Linux, Android, Quest
Случаи использованияОбщие приложения, игры, VR/AR, мобильныеКинематографические впечатления, взаимодействия крупным планомЭмоциональное повествование, продвинутое взаимодействие с персонажами

Совместимость с версиями движка

Проблема совместимости с UE 5.2

Если вы используете Unreal Engine 5.2, Realistic Models могут работать некорректно из-за ошибки в библиотеке ресемплинга UE. Для пользователей UE 5.2, которым требуется надежная функциональность синхронизации губ, пожалуйста, используйте Standard Model.

Эта проблема специфична для UE 5.2 и не затрагивает другие версии движка.

Рекомендации по производительности

  • Для большинства проектов Standard Model обеспечивает отличный баланс качества и производительности
  • Используйте Realistic Model, когда вам нужна наивысшая визуальная точность для персонажей MetaHuman
  • Используйте Mood-Enabled Realistic Model, когда контроль эмоционального выражения важен для вашего приложения
  • Учитывайте возможности производительности целевой платформы при выборе между моделями
  • Тестируйте разные уровни оптимизации, чтобы найти лучший баланс для вашего конкретного случая использования

Совместимость с TTS

Тип моделиПоддержка локального TTS (через Runtime Text To Speech)Поддержка внешнего TTSПримечания
Standard Model✅ Полная поддержка✅ Полная поддержкаСовместима со всеми опциями TTS
Realistic Model❌ Ограниченная поддержка✅ Полная поддержкаКонфликты среды выполнения ONNX с локальным TTS
Mood-Enabled Realistic Model✅ Полная поддержка✅ Полная поддержкаСовместима со всеми опциями TTS

Устранение неполадок

Распространенные проблемы

Пересоздание генератора для Realistic Models: Для надежной и последовательной работы с Realistic Models рекомендуется пересоздавать генератор каждый раз, когда вы хотите подать новые аудиоданные после периода бездействия. Это связано с поведением среды выполнения ONNX, которое может привести к прекращению работы синхронизации губ при повторном использовании генераторов после периодов тишины.

Например, вы можете пересоздавать генератор синхронизации губ при каждом запуске воспроизведения, например, всякий раз, когда вы вызываете Play Sound 2D или используете любой другой метод для запуска воспроизведения звуковой волны и синхронизации губ:

Пересоздание генератора синхронизации губ при воспроизведении звука

Совместимость с локальным TTS: Локальный TTS, предоставляемый плагином Runtime Text To Speech, в настоящее время не поддерживается с обычной Realistic model из-за конфликтов среды выполнения ONNX. Однако он полностью совместим как со Standard model, так и с Mood-Enabled Realistic model. Используйте внешние TTS-сервисы, если вам конкретно нужна обычная Realistic model с функциональностью TTS.

Ухудшение отзывчивости синхронизации губ: Если вы столкнулись с тем, что синхронизация губ становится менее отзывчивой со временем при использовании Streaming Sound Wave или Capturable Sound Wave, это может быть вызвано накоплением памяти. По умолчанию память перераспределяется каждый раз, когда добавляется новое аудио. Чтобы предотвратить эту проблему, периодически вызывайте функцию ReleaseMemory, чтобы освободить накопленную память, например, каждые 30 секунд или около того.

Оптимизация производительности:

  • Настраивайте Processing Chunk Size для Realistic models в зависимости от ваших требований к производительности
  • Используйте соответствующие количества потоков для вашего целевого оборудования
  • Рассмотрите использование типа вывода Mouth Only для моделей с поддержкой настроения, когда полная мимическая анимация не нужна