Verwendung des Plugins mit benutzerdefinierten Charakteren
Diese Anleitung führt Sie durch den Prozess der Einrichtung von Runtime MetaHuman Lip Sync für Nicht-MetaHuman-Charaktere. Dieser Prozess erfordert Vertrautheit mit Animationskonzepten und Rigging. Falls Sie Unterstützung bei der Implementierung für Ihren spezifischen Charakter benötigen, können Sie professionelle Hilfe unter [email protected] anfordern.
Wichtiger Hinweis zu Lip-Sync-Modellen
⚠️ Benutzerdefinierte Charaktere werden nur mit dem Standard (Schnelleres) Modell unterstützt.
Das Realistische (Höhere Qualität) Modell ist ausschließlich für MetaHuman-Charaktere konzipiert und kann nicht mit benutzerdefinierten Charakteren verwendet werden. In dieser Anleitung sollten Sie, sofern referenziert, den Anweisungen für das Standard-Modell aus der Haupt-Setup-Anleitung folgen.
Voraussetzungen
Bevor Sie beginnen, stellen Sie sicher, dass Ihr Charakter diese Anforderungen erfüllt:
- Besitzt ein gültiges Skelett
- Enthält Morph Targets (Blend Shapes) für Gesichtsausdrücke
- Idealerweise verfügt über 10+ Morph Targets zur Definition von Visemen (mehr Viseme = bessere Lip-Sync-Qualität)
Das Plugin erfordert die Zuordnung der Morph Targets Ihres Charakters zu folgenden Standard-Visemen:
Sil -> Silence
PP -> Bilabial plosives (p, b, m)
FF -> Labiodental fricatives (f, v)
TH -> Dental fricatives (th)
DD -> Alveolar plosives (t, d)
KK -> Velar plosives (k, g)
CH -> Postalveolar affricates (ch, j)
SS -> Sibilants (s, z)
NN -> Nasal (n)
RR -> Approximant (r)
AA -> Open vowel (aa)
E -> Mid vowel (e)
IH -> Close front vowel (ih)
OH -> Close-mid back vowel (oh)
OU -> Close back vowel (ou)
Hinweis: Falls dein Charakter ein anderes Set von Visemen hat (was wahrscheinlich ist), benötigst du keine exakten Übereinstimmungen für jedes Visem. Annäherungen sind oft ausreichend – zum Beispiel könnte das Mapping des SH
-Visems deines Charakters auf das CH
-Visem des Plugins effektiv funktionieren, da es sich um ähnliche postalveolare Laute handelt.
Visem-Mapping-Referenz
Hier sind die Mappings zwischen gängigen Visem-Systemen und den vom Plugin benötigten Visemen:
- Apple ARKit
- FACS-basierte Systeme
- Preston-Blair-System
- 3ds-Max-Phonem-System
- Benutzerdefinierte Charaktere (Daz Genesis 8/9, Reallusion CC3/CC4, Mixamo, ReadyPlayerMe)
ARKit bietet einen umfassenden Satz an Blendshapes für Gesichtsanimationen, einschließlich mehrerer Mundformen. So kannst du sie auf die RuntimeMetaHumanLipSync-Viseme mappen:
RuntimeMetaHumanLipSync Viseme | ARKit-Äquivalent | Hinweise |
---|---|---|
Sil | mouthClose | Die neutrale/Ruheposition |
PP | mouthPressLeft + mouthPressRight | Für bilabiale Laute beide Press-Shapes kombinieren |
FF | lowerLipBiteLeft + lowerLipBiteRight | Erzeugt den "f/v"-Kontakt zwischen Lippen und Zähnen |
TH | tongueOut | ARKit bietet direkte Zungensteuerung |
DD | jawOpen (leicht) + tongueUp | Leichte Kieferöffnung mit Zungenposition kombinieren |
KK | mouthLeft oder mouthRight (leicht) | Subtiles Ziehen der Mundwinkel approximiert velare Laute |
CH | jawOpen (leicht) + mouthFunnel (leicht) | Kombinieren für postalveolare Laute |
SS | mouthFrown | Leichtes Stirnrunzeln für Zischlaute |
NN | jawOpen (sehr leicht) + mouthClose | Fast geschlossener Mund mit leichter Kieferöffnung |
RR | mouthPucker (leicht) | Subtile Rundung für R-Laute |
AA | jawOpen + mouthOpen | Kombiniert für weit geöffnete Vokallaute |
E | jawOpen (leicht) + mouthSmile | Mittel-offene Position mit leichtem Lächeln |
IH | mouthSmile (leicht) | Leicht gespreizte Lippen |
OH | mouthFunnel | Gerundete, offene Form |
OU | mouthPucker | Stark gerundete Lippen |
FACS (Facial Action Coding System) verwendet Action Units (AUs), um Gesichtsbewegungen zu beschreiben. Viele professionelle Animationssysteme nutzen FACS-basierte Ansätze:
RuntimeMetaHumanLipSync Viseme | FACS Action Units | Hinweise |
---|---|---|
Sil | Neutral | Keine aktiven AUs |
PP | AU23 + AU24 | Lip presser + lip tightener |
FF | AU22 + AU28 | Lip funneler + lip suck |
TH | AU25 (leicht) + AU27 | Lips apart + mouth stretch |
DD | AU25 + AU16 | Lips apart + lower lip depressor |
KK | AU26 + AU14 | Jaw drop + dimpler |
CH | AU18 + AU25 | Lip pucker + lips apart |
SS | AU20 | Lip stretcher |
NN | AU25 (sehr leicht) | Leicht geöffnete Lippen |
RR | AU18 (leicht) | Leichte Lippenspitzen |
AA | AU27 + AU26 | Mouth stretch + jaw drop |
E | AU25 + AU12 | Lips apart + lip corner puller |
IH | AU12 + AU25 (leicht) | Lip corner puller + leicht geöffnete Lippen |
OH | AU27 (leicht) + AU18 | Leichte Mundstreckung + Lippenspitzen |
OU | AU18 + AU26 (leicht) | Lippenspitzen + leichte Kieferöffnung |
Das Preston-Blair-System ist ein klassischer Animationsstandard, der beschreibende Namen für Mundformen verwendet:
RuntimeMetaHumanLipSync Viseme | Preston Blair | Hinweise |
---|---|---|
Sil | Rest | Neutrale, geschlossene Mundposition |
PP | MBP | Die klassische "MBP"-Mundform |
FF | FV | Die "FV"-Position mit Zähnen auf der Unterlippe |
TH | TH | Zunge berührt Vorderzähne |
DD | D/T/N | Ähnliche Position für diese Konsonanten |
KK | CKG | Harte Konsonantenposition |
CH | CH/J/SH | Leichte Schmollmundform für diese Laute |
SS | S/Z | Leicht geöffnete Zahnposition |
NN | N/NG/L | Ähnlich wie D/T, aber andere Zungenposition |
RR | R | Gerundete Lippen für R-Laut |
AA | AI | Weit geöffneter Mund |
E | EH | Mittel geöffneter Mund |
IH | EE | Gespreizte Lippen |
OH | OH | Gerundete, mittlere Öffnung |
OU | OO | Stark gerundete Lippen |
3ds Max verwendet ein phonembasiertes System für sein Character Studio:
RuntimeMetaHumanLipSync Viseme | 3ds Max Phonem | Hinweise |
---|---|---|
Sil | rest | Standard-Mundposition |
PP | p_b_m | Direktes Äquivalent |
FF | f_v | Direktes Äquivalent |
TH | th | Direktes Äquivalent |
DD | t_d | Direktes Äquivalent |
KK | k_g | Direktes Äquivalent |
CH | sh_zh_ch | Kombinierte Form |
SS | s_z | Direktes Äquivalent |
NN | n_l | Kombiniert für diese Laute |
RR | r | Direktes Äquivalent |
AA | ah | Offener Vokallaut |
E | eh | Mittlerer Vokal |
IH | ee | Geschlossener Vorderzungenvokal |
OH | oh | Hinterer gerundeter Vokal |
OU | oo | Geschlossener Hinterzungenvokal |
Benutzerdefinierte Charaktere mit Visem- oder Mund-Blend-Shapes/Morph-Targets (Daz Genesis 8/9, Reallusion CC3/CC4, Mixamo, ReadyPlayerMe etc.) können typischerweise mit angemessenen Annäherungen auf das Visem-System des Plugins gemappt werden.
Erstellen eines benutzerdefinierten Pose-Assets
Folge diesen Schritten, um ein benutzerdefiniertes Pose-Asset für deinen Charakter zu erstellen, das mit dem Blend Runtime MetaHuman Lip Sync
-Node verwendet wird:
1. Finde das Skeletal Mesh deines Charakters
Finde das Skeletal Mesh, das die Morph-Targets (Blend-Shapes) enthält, die du für die Lippenanimierung verwenden möchtest. Dies könnte ein Ganzkörper-Mesh oder nur ein Gesichts-Mesh sein, abhängig vom Design deines Charakters.
2. Überprüfe verfügbare Morph-Targets
Stelle sicher, dass dein Skeletal Mesh geeignete Morph-Targets hat, die als Viseme für die Lippenanimation verwendet werden können. Die meisten Charaktere mit Gesichtsanimation sollten einige Phonem-/Visem-Morph-Targets besitzen.
3. Erstelle eine Referenz-Pose-Animation
- Gehe zu
Create Asset -> Create Animation -> Reference Pose
- Gib einen beschreibenden Namen für die Animationssequenz ein und speichere sie an einem geeigneten Ort
- Die erstellte Animationssequenz öffnet sich automatisch und zeigt eine leere Animation in einer Schleife
- Klicke auf den
Pause
-Button, um die Wiedergabe für einfacheres Bearbeiten zu stoppen
4. Bearbeite die Animationssequenz
- Klicke auf
Edit in Sequencer
->Edit with FK Control Rig
- Im
Bake to Control Rig
-Dialog klicke auf denBake to Control Rig
-Button, ohne Einstellungen zu ändern
- Der Editor wechselt in den
Animation Mode
mit geöffnetemSequencer
-Tab - Setze das
View Range End Time
auf 0016 (was automatisch auchWorking Range End
auf 0016 setzt) - Ziehe den rechten Rand des Sliders an das rechte Ende des Sequencer-Fensters
5. Animation Curves vorbereiten
- Kehren Sie zur Animation Sequence Asset zurück und suchen Sie die Morph Targets in der
Curves
-Liste (falls nicht sichtbar, schließen und öffnen Sie das Animation Sequence Asset erneut) - Entfernen Sie alle Morph Targets, die nicht mit Visemen oder Mundbewegungen zusammenhängen, die Sie für Lip Sync verwenden möchten
6. Planen Sie Ihre Visem-Zuordnung
Erstellen Sie einen Zuordnungsplan, um die Viseme Ihres Charakters mit dem vom Plugin benötigten Satz abzugleichen. Zum Beispiel:
Sil -> Sil
PP -> FV
FF -> FV
TH -> TH
DD -> TD
KK -> KG
CH -> CH
SS -> SZ
NN -> NL
RR -> RR
AA -> AA
E -> E
IH -> IH
OH -> O
OU -> U
Hinweis: Es ist akzeptabel, wiederholte Zuordnungen zu haben, wenn der Visem-Satz Ihres Charakters keine exakten Entsprechungen für jedes erforderliche Visem aufweist.
7. Animieren Sie jedes Visem
- Animieren Sie für jedes Visem die relevanten Morph-Target-Kurven von 0.0 bis 1.0
- Starten Sie jede Visem-Animation auf einem anderen Frame
- Konfigurieren Sie zusätzliche Kurven nach Bedarf (Kiefer-/Mundöffnung, Zungenposition usw.), um natürlich aussehende Visem-Formen zu erstellen
8. Erstellen Sie ein Pose-Asset
- Gehen Sie zu
Create Asset
->Pose Asset
->Current Animation
- Geben Sie einen beschreibenden Namen für das Pose-Asset ein und speichern Sie es an einem geeigneten Ort
- Das erstellte Pose-Asset öffnet sich automatisch und zeigt Posen wie
Pose_0
,Pose_1
usw. an, die jeweils einem Visem entsprechen - Überprüfen Sie die Visem-Gewichtungen, um sicherzustellen, dass sie wie erwartet funktionieren
9. Finalisieren Sie das Pose-Asset
- Benennen Sie jede Pose entsprechend den Visem-Namen aus dem Abschnitt Voraussetzungen um
- Löschen Sie nicht verwendete Posen
Einrichtung der Audio-Verarbeitung und Blending
Sobald Ihr Pose-Asset bereit ist, müssen Sie die Audio-Verarbeitungs- und Blending-Nodes einrichten:
- Suchen oder erstellen Sie das Animation Blueprint Ihres Charakters
- Richten Sie die Audio-Verarbeitung und das Blending gemäß den gleichen Schritten ein, die im Standard-Plugin-Setup-Leitfaden dokumentiert sind
- Wählen Sie im
Blend Runtime MetaHuman Lip Sync
-Node Ihr benutzerdefiniertes Pose-Asset anstelle des standardmäßigen MetaHuman-Pose-Assets aus
Kombination mit Körperanimationen
Wenn Sie Lip Sync zusammen mit anderen Körperanimationen durchführen möchten:
- Folgen Sie den gleichen Schritten wie im Standard-Plugin-Leitfaden dokumentiert
- Stellen Sie sicher, dass Sie die korrekten Bone-Names für das Skelett des Halses Ihres Charakters angeben, anstatt die MetaHuman-Bone-Names zu verwenden
Ergebnisse
Hier sind Beispiele für benutzerdefinierte Charaktere, die dieses Setup verwenden:
Die Qualität des Lip Sync hängt weitgehend vom spezifischen Charakter und der Qualität der Visem-Einrichtung ab. Die obigen Beispiele zeigen das Plugin in Aktion mit verschiedenen Arten von benutzerdefinierten Charakteren mit unterschiedlichen Visem-Systemen.