Перейти к основному содержимому

Руководство по настройке

Это руководство проведет вас через базовый процесс настройки Runtime MetaHuman Lip Sync для ваших персонажей MetaHuman.

Примечание: Runtime MetaHuman Lip Sync работает как с MetaHuman, так и с пользовательскими персонажами. Подробные инструкции по настройке пользовательских персонажей смотрите в Руководстве по настройке пользовательских персонажей.

Предварительные требования

Перед началом убедитесь, что:

  1. Плагин MetaHuman включен в вашем проекте (Примечание: Начиная с UE 5.6, этот шаг больше не требуется, так как функциональность MetaHuman интегрирована непосредственно в движок)
  2. У вас есть хотя бы один персонаж MetaHuman, загруженный и доступный в вашем проекте
  3. Плагин Runtime MetaHuman Lip Sync установлен

Плагин расширения стандартной модели

Если вы планируете использовать Стандартную модель, вам потребуется установить плагин расширения:

  1. Скачайте плагин Standard Lip Sync Extension plugin с Google Drive
  2. Извлеките папку из загруженного архива в папку Plugins вашего проекта (создайте эту папку, если она не существует)
  3. Убедитесь, что ваш проект настроен как C++ проект (даже если у вас нет кода на C++)
  4. Пересоберите ваш проект
примечание
  • Это расширение требуется только если вы хотите использовать Стандартную модель. Если вам нужны только Реалистичные модели, вы можете пропустить этот шаг.
  • Для получения дополнительной информации о том, как собирать плагины вручную, смотрите руководство по сборке плагинов

Дополнительные плагины

  • Если вы планируете использовать захват аудио (например, ввод с микрофона), установите плагин Runtime Audio Importer.
  • Если вы планируете использовать функциональность преобразования текста в речь:
    • Для локального TTS (только для Стандартной модели), установите плагин Runtime Text To Speech.
    • Для внешних TTS-провайдеров (ElevenLabs, OpenAI), установите плагин Runtime AI Chatbot Integrator.

Настройка Animation Blueprint

Шаг 1: Найдите и измените Blueprint анимации лица

Вам нужно изменить Animation Blueprint, который будет использоваться для лицевой анимации вашего персонажа MetaHuman. Стандартный Animation Blueprint лица MetaHuman находится по адресу:

Content/MetaHumans/Common/Face/Face_AnimBP

Face Animation Blueprint

У вас есть несколько вариантов для реализации функции синхронизации губ:

Откройте стандартный Face_AnimBP напрямую и внесите свои изменения. Любые изменения затронут всех персонажей MetaHuman, использующих этот Animation Blueprint.

Примечание: Этот подход удобен, но повлияет на всех персонажей, использующих стандартный Animation Blueprint.

Шаг 2: Настройка Event Graph

Откройте ваш Face Animation Blueprint и перейдите к Event Graph. Вам нужно создать генератор, который будет обрабатывать аудиоданные и генерировать анимацию lip sync.

  1. Добавьте ноду Event Blueprint Begin Play, если она еще не существует
  2. Добавьте ноду Create Runtime Viseme Generator и подключите ее к событию Begin Play
  3. Сохраните вывод в переменную (например, "VisemeGenerator") для использования в других частях графа

Создание Runtime Viseme Generator

Подробные параметры конфигурации смотрите в разделе Standard Model Configuration.

Шаг 3: Настройка Anim Graph

После настройки Event Graph переключитесь на Anim Graph, чтобы подключить генератор к анимации персонажа:

  1. Найдите позу, содержащую лицо MetaHuman (обычно из Use cached pose 'Body Pose')
  2. Добавьте ноду Blend Runtime MetaHuman Lip Sync
  3. Подключите позу к пину Source Pose ноды Blend Runtime MetaHuman Lip Sync
  4. Подключите вашу переменную VisemeGenerator к пину Viseme Generator
  5. Подключите выход ноды Blend Runtime MetaHuman Lip Sync к пину Result ноды Output Pose

Blend Runtime MetaHuman Lip Sync

Следующие шаги

Теперь, когда базовая настройка Animation Blueprint завершена, вам нужно настроить обработку аудиовхода для подачи аудиоданных в ваш генератор синхронизации губ.

Перейдите к Руководству по обработке аудио, чтобы узнать, как настроить различные методы аудиоввода, включая захват с микрофона, преобразование текста в речь и обработку аудиофайлов. Для расширенных параметров конфигурации и тонкой настройки см. Руководство по конфигурации.