انتقل إلى المحتوى الرئيسي

دليل الإعداد

يأخذك هذا الدليل خلال عملية الإعداد الأساسية لتزامن الشفاه في الوقت الفعلي لـ MetaHuman مع شخصيات MetaHuman الخاصة بك.

ملاحظة: يعمل تزامن الشفاه في الوقت الفعلي لـ MetaHuman مع كل من شخصيات MetaHuman والشخصيات المخصصة. للحصول على تعليمات مفصلة حول إعداد الشخصيات المخصصة، راجع دليل إعداد الشخصية المخصصة.

المتطلبات الأساسية

قبل البدء، تأكد من:

  1. متطلبات إضافة MetaHuman:

    • UE 5.5 والإصدارات السابقة: قم بتمكين إضافة MetaHuman في مشروعك
    • UE 5.6 والإصدارات اللاحقة: قم بتمكين إضافة MetaHuman Core Tech في مشروعك
    إضافات MetaHuman الإضافية

    اعتمادًا على كيفية إنشاء شخصيات MetaHuman الخاصة بك، قد تحتاج إلى إضافات إضافية. على سبيل المثال، إذا كنت تنوي إنشاء MetaHuman باستخدام نظام MetaHuman Creator الجديد الذي تم تقديمه في UE 5.6، فستحتاج أيضًا إلى تمكين إضافة MetaHuman Creator. لمزيد من المعلومات حول هذا النظام، راجع توثيق MetaHuman Creator.

  2. لديك شخصية MetaHuman واحدة على الأقل تم تنزيلها ومتاحة في مشروعك

  3. تم تثبيت إضافة Runtime MetaHuman Lip Sync

إضافة النموذج القياسي

إذا كنت تخطط لاستخدام النموذج القياسي، فستحتاج إلى تثبيت الإضافة الإضافية:

  1. قم بتنزيل إضافة Standard Lip Sync Extension plugin من Google Drive
  2. استخرج المجلد من الأرشيف الذي تم تنزيله إلى مجلد Plugins الخاص بمشروعك (قم بإنشاء هذا المجلد إذا لم يكن موجودًا)
  3. تأكد من إعداد مشروعك كمشروع C++ (حتى إذا لم يكن لديك أي كود C++)
  4. أعد بناء مشروعك
ملاحظة
  • هذه الإضافة الإضافية مطلوبة فقط إذا كنت تريد استخدام النموذج القياسي. إذا كنت تحتاج فقط إلى النماذج الواقعية، يمكنك تخطي هذه الخطوة.
  • لمزيد من المعلومات حول كيفية بناء الإضافات يدويًا، راجع درس بناء الإضافات

إضافات إضافية

  • إذا كنت تخطط لاستخدام التقاط الصوت (على سبيل المثال، إدخال الميكروفون)، قم بتثبيت إضافة Runtime Audio Importer.
  • إذا كنت تخطط لاستخدام وظيفة تحويل النص إلى كلام:
    • لـ تحويل النص إلى كلام محلي (النموذج القياسي والنموذج الواقعي المدعوم بالمزاج)، قم بتثبيت إضافة Runtime Text To Speech.
    • لـ مزودي تحويل النص إلى كلام خارجيين (ElevenLabs، OpenAI، Google Cloud، Azure)، قم بتثبيت إضافة Runtime AI Chatbot Integrator.

إعداد مخططات الحركة

الخطوة 1: تحديد وتعديل مخطط الوجه المتحرك

تحتاج إلى تعديل مخطط حركي (Animation Blueprint) سيُستخدم لتحريك وجه شخصية MetaHuman الخاصة بك. مخطط الوجه المتحرك الافتراضي لـ MetaHuman موجود في:

Content/MetaHumans/Common/Face/Face_AnimBP

Face Animation Blueprint

لديك عدة خيارات لتنفيذ وظيفة مزامنة الشفاه:

افتح Face_AnimBP الافتراضي مباشرة وقم بإجراء تعديلاتك. أي تغييرات ستؤثر على جميع شخصيات MetaHuman التي تستخدم مخطط الحركة هذا.

ملاحظة: هذا النهج مريح ولكنه سيؤثر على جميع الشخصيات التي تستخدم مخطط الحركة الافتراضي.

الخطوة 2: إعداد مخطط الأحداث

افتح مخطط حركة الوجه الخاص بك وانتقل إلى Event Graph. ستحتاج إلى إنشاء مُنشئ سيعالج بيانات الصوت ويُنشئ رسوم متحركة لمزامنة الشفاه.

  1. أضف عقدة Event Blueprint Begin Play إذا لم تكن موجودة بالفعل
  2. أضف عقدة Create Runtime Viseme Generator ووصّلها بحدث Begin Play
  3. احفظ الناتج كمتغير (مثل "VisemeGenerator") لاستخدامه في أجزاء أخرى من المخطط

إنشاء مُنشئ الفيزيم في وقت التشغيل

للحصول على خيارات التكوين التفصيلية، راجع قسم تكوين النموذج القياسي.

الخطوة 3: إعداد الرسم البياني للرسوم المتحركة

بعد إعداد الرسم البياني للأحداث، انتقل إلى Anim Graph لربط المُولِّد برسوميات الشخصية:

  1. حدد الوضعية التي تحتوي على وجه MetaHuman (عادة من Use cached pose 'Body Pose')
  2. أضف عقدة Blend Runtime MetaHuman Lip Sync
  3. صل الوضعية بـ Source Pose الخاصة بعقدة Blend Runtime MetaHuman Lip Sync
  4. صل متغير VisemeGenerator الخاص بك بـ Viseme Generator
  5. صل إخراج عقدة Blend Runtime MetaHuman Lip Sync بـ Result الخاصة بـ Output Pose

Blend Runtime MetaHuman Lip Sync

الخطوات التالية

الآن بعد أن أكملت الإعداد الأساسي لـ Animation Blueprint، ستحتاج إلى تكوين معالجة إدخال الصوت لتغذية بيانات الصوت إلى مُولِّد مزامنة الشفاه الخاص بك.

تابع إلى دليل معالجة الصوت لتتعلم كيفية إعداد طرق إدخال الصوت المختلفة بما في ذلك التقاط الميكروفون، تحويل النص إلى كلام، ومعالجة ملفات الصوت. للخيارات المتقدمة للتكوين والضبط الدقيق، راجع دليل التكوين.