نظرة عامة

Runtime MetaHuman Lip Sync هو إضافة تُمكّن مزامنة الشفاه في الوقت الفعلي، دون اتصال، وعبر المنصات لكل من شخصيات MetaHuman والشخصيات المخصصة. تسمح لك بتحريك شفاه الشخصية استجابةً لمدخلات صوتية من مصادر متنوعة، بما في ذلك:
- مدخلات الميكروفون عبر موجة الصوت القابلة للتسجيل الخاصة بـ Runtime Audio Importer
- كلام مُركّب من Runtime Text To Speech أو Runtime AI Chatbot Integrator
- بيانات صوتية مُدفوعة أو مستوردة بتنسيقات متعددة عبر Runtime Audio Importer
- أي بيانات صوتية بتنسيق PCM عائم (مصفوفة من عينات النقطة العائمة)
تقوم الإضافة داخليًا بتوليد visemes (تمثيلات مرئية للفونيمات) بناءً على المدخل الصوتي. نظرًا لأنها تعمل مباشرةً مع بيانات الصوت بدلاً من النص، تدعم الإضافة مدخلات متعددة اللغات بما في ذلك على سبيل المثال لا الحصر الإنجليزية، الإسبانية، الفرنسية، الألمانية، اليابانية، الصينية، الكورية، الروسية، الإيطالية، البرتغالية، العربية، والهندية. أي لغة مدعومة حرفيًا حيث يتم توليد مزامنة الشفاه من فونيمات الصوت وليس من معالجة نصية خاصة بلغة معينة.
ينتج النموذج القياسي 14 viseme ويقوم بتحريك مزامنة الشفاه باستخدام أصل وضعية مُحدد مسبقًا. في المقابل، تولد النماذج الواقعية (الحصرية لشخصيات MetaHuman) 81 تغييرًا في التحكم الوجهي دون الاعتماد على أصل وضعية مُحدد مسبقًا، مما يؤدي إلى رسوم وجهية أكثر واقعية بشكل ملحوظ.
توافق الشخصيات
على الرغم من اسمها، يعمل Runtime MetaHuman Lip Sync مع مجموعة واسعة من الشخصيات تتجاوز MetaHumans فقط:
أنظمة الشخصيات التجارية الشائعة
- شخصيات Daz Genesis 8/9
- شخصيات Reallusion Character Creator 3/4 (CC3/CC4)
- شخصيات Mixamo
- أفاتار ReadyPlayerMe
دعم معايير التحريك
- أنظمة blendshape القائمة على FACS
- معيار Apple ARKit blendshape
- مجموعات فونيمات Preston Blair
- أنظمة فونيمات 3ds Max
- أي شخصية بها أهداف تشكيل مخصصة (morph targets) للتعبيرات الوجهية
للحصول على تعليمات مفصلة حول استخدام الإضافة مع شخصيات غير MetaHuman، راجع دليل إعداد الشخصيات المخصصة.
معاينة التحريك
تحقق من هذه الرسوم المتحركة القصيرة لترى جودة تحريك مزامنة الشفاه التي تنتجها الإضافة عبر أنواع الشخصيات والنماذج المختلفة:




الميزات الرئيسية
- مزامنة الشفاه في الوقت الفعلي من مدخل الميكروفون
- دعم معالجة الصوت دون اتصال
- توافق عبر المنصات مع دعم منصة محدد للنموذج
- دعم أنظمة الشخصيات المتعددة ومعايير الرسوم المتحركة
- تعيين مرن للفونيمات المرئية للشخصيات المخصصة
- دعم لغوي عالمي - يعمل مع أي لغة منطوقة من خلال تحليل الصوت
- رسوم متحركة للوجه واعية بالمزاج لتعزيز التعبير
- أنواع مخرجات قابلة للتكوين (الوجه الكامل أو عناصر التحكم للفم فقط)
نماذج مزامنة الشفاه
يقدم البرنامج المساعد نماذج متعددة لمزامنة الشفاه لتلبية احتياجات المشروع المختلفة:
- النموذج القياسي
- النموذج الواقعي
- النموذج الواقعي المدعوم بالمزاج
يوفر نموذج مزامنة الشفاه القياسي أداءً فعالاً عبر المنصات مع توافق واسع للشخصيات:
- يعمل مع MetaHumans وجميع أنواع الشخصيات المخصصة
- مُحسَّن لأداء الوقت الفعلي
- متطلبات موارد أقل
- توافق كامل مع TTS المحلي (برنامج Runtime Text To Speech المساعد)
- دعم المنصة: Windows، Android، المنصات القائمة على Android (بما في ذلك Meta Quest)
لاستخدام النموذج القياسي، تحتاج إلى تثبيت برنامج مساعد إضافي. راجع قسم المتطلبات الأساسية للحصول على تعليمات التثبيت.
يقدم نموذج مزامنة الشفاه الواقعي دقة بصرية محسنة مصممة خصيصًا لشخصيات MetaHuman:
- متوافق مع MetaHuman والشخصيات القائمة على ARKit مع رسوم متحركة وجه متقدمة (81 عنصر تحكم للوجه)
- جودة بصرية أعلى مع حركات فم أكثر طبيعية
- متطلبات أداء أعلى قليلاً
- دعم محدود لـ TTS المحلي (يُوصى بخدمات TTS الخارجية)
- مثالي للتجارب السينمائية وتفاعلات الشخصيات عن قرب
- دعم المنصة: Windows، Mac، iOS، Linux، Android، المنصات القائمة على Android (بما في ذلك Meta Quest)
- ثلاثة مستويات تحسين: الأصلي، شبه المُحسَّن، والمُحسَّن للغاية
- مجموعات أهداف التشكيل القابلة للتكوين (انظر اختيار مجموعة أهداف التشكيل)
النموذج الواقعي مدرج في البرنامج المساعد الرئيسي ولا يتطلب أي إضافات لاستخدامه.
يوفر النموذج الواقعي المدعوم بالمزاج رسومًا متحركة للوجه واعية بالعاطفة لشخصيات MetaHuman:
- متوافق مع MetaHuman والشخصيات القائمة على ARKit مع رسوم متحركة للوجه تستجيب للمزاج
- 12 نوعًا مختلفًا من المزاج (محايد، سعيد، حزين، واثق، إلخ)
- شدة مزاج قابلة للتكوين (من 0.0 إلى 1.0)
- توقيت استباقي قابل للتعديل لتحسين المزامنة (من 20 مللي ثانية إلى 200 مللي ثانية)
- أنواع مخرجات قابلة للاختيار: عناصر تحكم للوجه الكامل أو للفم فقط
- معالجة صوتية متدفقة للتطبيقات في الوقت الفعلي
- مجموعات أهداف التشكيل القابلة للتكوين (انظر اختيار مجموعة أهداف التشكيل)
- دعم المنصة: Windows، Mac، iOS، Linux، Android، المنصات القائمة على Android (بما في ذلك Meta Quest)
يتضمن النموذج المدعوم بالمزاج ميزات متقدمة مثل التوقيت الاستباقي القابل للتكوين والمخرجات الانتقائية للتحكم، مما يجعله مثاليًا للتطبيقات التي تتطلب التحكم في التعبير العاطفي.
يمكنك اختيار النموذج المناسب بناءً على متطلبات مشروعك للأداء، وتوافق الشخصية، والجودة البصرية، والمنصة المستهدفة، واحتياجات الميزات.
بينما تدعم جميع النماذج طرق إدخال الصوت المختلفة، فإن النموذج الواقعي العادي لديه توافق محدود مع TTS المحلي بسبب تعارضات وقت تشغيل ONNX. ومع ذلك، فإن النموذج الواقعي المدعوم بالمزاج متوافق بالكامل مع TTS المحلي. لوظيفة تحويل النص إلى كلام:
- النموذج القياسي: متوافق مع جميع خيارات TTS (المحلية والخارجية)
- النموذج الواقعي: يُوصى بخدمات TTS الخارجية (OpenAI، ElevenLabs)
- النموذج الواقعي المدعوم بالمزاج: متوافق مع جميع خيارات TTS (المحلية والخارجية)
آلية العمل
يعالج البرنامج المساعد إدخال الصوت بالطريقة التالية:
- يتم استقبال بيانات الصوت بتنسيق PCM عائم مع قنوات ومعدل عينة محددين
- يعالج البرنامج المساعد الصوت لتوليد بيانات تحكم للوجه أو فونيمات مرئية اعتمادًا على النموذج
- بالنسبة للنماذج المدعومة بالمزاج، يتم تطبيق السياق العاطفي على الرسوم المتحركة للوجه
- تقود بيانات الرسوم المتحركة حركات وجه الشخصية في الوقت الفعلي
هندسة الأداء
يستخدم Runtime MetaHuman Lip Sync الاستدلال على وحدة المعالجة المركزية فقط لتقديم نتائج مزامنة شفاه متسقة ومنخفضة الكمون مناسبة للتطبيقات في الوقت الفعلي. بشكل افتراضي، يقوم البرنامج المساعد بإجراء معالجة مزامنة الشفاه كل 10 مللي ثانية (قابل للتعديل - انظر تكوين البرنامج المساعد لجميع الإعدادات المتاحة بما في ذلك حجم جزء المعالجة، عدد الخيوط، ومعلمات الأداء الأخرى).
نظرة عامة على هندسة النموذج
تستخدم نماذج مزامنة الشفاه شبكة عصبية مدمجة قائمة على المحولات التي تعالج الصوت من خلال تحليل مخطط الطيف الميل. تم تصميم هذه الهندسة خفيفة الوزن خصيصًا لأداء الوقت الفعلي مع استدلال فعال لوحدة المعالجة المركزية وبصمة ذاكرة دنيا.
لماذا الاستدلال على وحدة المعالجة المركزية؟
للعمليات الصغيرة والمتكررة للاستدلال مثل مزامنة الشفاه في الوقت الفعلي، يوفر معالجة وحدة المعالجة المركزية خصائص كمون أفضل من وحدة معالجة الرسومات. بحجم دفعة 1 وفترات استدلال تتراوح بين 10-100 مللي ثانية، غالبًا ما تتجاوز النفقات العامة لوحدة معالجة الرسومات من عمليات نقل PCIe وإطلاق النواة وقت الحساب الفعلي. بالإضافة إلى ذلك، في محركات الألعاب، تكون وحدة معالجة الرسومات مشبعة بالفعل بالتقديم، والظلال، والفيزياء، مما يخلق تنافسًا على الموارد يؤدي إلى حدوث طفرات كمون غير متوقعة.
توافق الأجهزة
يعمل البرنامج المساعد بكفاءة على معظم وحدات المعالجة المركزية من المستوى المتوسط وما فوق دون الحاجة إلى أجهزة رسومات مخصصة، مما يوفر أداءً في الوقت الفعلي عبر منصات سطح المكتب، والهواتف المحمولة، والواقع الافتراضي. للأجهزة الأضعف، يمكنك ضبط نوع النموذج إلى شبه مُحسَّن أو مُحسَّن للغاية، أو زيادة حجم جزء المعالجة للحفاظ على أداء الوقت الفعلي مع استجابة مخفضة قليلاً.
البدء السريع
إليك الإعداد الأساسي لتمكين مزامنة الشفاه على شخصيتك:
- لشخصيات MetaHuman، اتبع دليل الإعداد
- للشخصيات المخصصة، اتبع دليل إعداد الشخصية المخصصة
- اختر وقم بتكوين نموذج مزامنة الشفاه المفضل لديك
- قم بإعداد معالجة إدخال الصوت في مخططك الأزرق
- قم بتوصيل عقدة مزامنة الشفاه المناسبة في مخطط الرسوم المتحركة الأزرق
- شغل الصوت وشاهد شخصيتك تتحدث بعاطفة!
موارد إضافية
📦 التحميلات والروابط
- احصل عليه على Fab
- موقع المنتج
- تحميل العرض التوضيحي (Windows)
- تحميل ملفات مصدر العرض التوضيحي (UE 5.6) – يتطلب هذا البرنامج المساعد + Runtime Audio Importer، اختياري: Text To Speech / AI Chatbot. يتطلب النموذج القياسي برنامجًا مساعدًا إضافيًا صغيرًا (انظر هنا)
🎥 دروس الفيديو
العرض التوضيحي المميز:
دروس النموذج الواقعي (عالي الجودة):
- مزامنة شفاه عالية الجودة مع تحكم بالمزاج و TTS محلي ⭐ جديد
- مزامنة شفاه عالية الجودة مع ElevenLabs و OpenAI TTS
- مزامنة شفاه عالية الجودة مع ميكروفون مباشر
دروس النموذج القياسي:
- مزامنة شفاه قياسية مع ميكروفون مباشر
- مزامنة شفاه قياسية مع تحويل نص إلى كلام محلي
- مزامنة شفاه قياسية مع ElevenLabs و OpenAI TTS
الإعداد العام:
💬 الدعم
- خادم دعم Discord
- التطوير المخصص: [email protected] (حلول مخصصة للفرق والمنظمات)