Verwendung des Plugins mit benutzerdefinierten Charakteren
Diese Anleitung führt Sie durch den Prozess der Einrichtung von Runtime MetaHuman Lip Sync für Nicht-MetaHuman-Charaktere. Dieser Prozess erfordert Vertrautheit mit Animationskonzepten und Rigging. Falls Sie Unterstützung bei der Implementierung für Ihren spezifischen Charakter benötigen, können Sie professionelle Hilfe unter [email protected] anfordern.
Voraussetzungen
Bevor Sie beginnen, stellen Sie sicher, dass Ihr Charakter folgende Anforderungen erfüllt:
- Besitzt ein gültiges Skelett
- Enthält Morph Targets (Blend Shapes) für Gesichtsausdrücke
- Idealerweise verfügt über 10+ Morph Targets zur Definition von Visemen (mehr Viseme = bessere Lip-Sync-Qualität)
Das Plugin erfordert die Zuordnung Ihrer Charakter-Morph-Targets zu folgenden Standard-Visemen:
Sil -> Silence
PP -> Bilabial plosives (p, b, m)
FF -> Labiodental fricatives (f, v)
TH -> Dental fricatives (th)
DD -> Alveolar plosives (t, d)
KK -> Velar plosives (k, g)
CH -> Postalveolar affricates (ch, j)
SS -> Sibilants (s, z)
NN -> Nasal (n)
RR -> Approximant (r)
AA -> Open vowel (aa)
E -> Mid vowel (e)
IH -> Close front vowel (ih)
OH -> Close-mid back vowel (oh)
OU -> Close back vowel (ou)
Hinweis: Falls Ihre Figur über ein anderes Set an Visemen verfügt (was wahrscheinlich ist), benötigen Sie keine exakten Übereinstimmungen für jedes Visem. Annäherungen sind oft ausreichend – zum Beispiel könnte das SH
-Visem Ihrer Figur dem CH
-Visem des Plugins zugeordnet werden, da es sich um ähnliche postalveolare Laute handelt.
Visem-Zuordnungsreferenz
Hier sind die Zuordnungen zwischen gängigen Visem-Systemen und den vom Plugin benötigten Visemen:
- Apple ARKit
- FACS-basierte Systeme
- Preston-Blair-System
- 3ds-Max-Phonemsystem
- Benutzerdefinierte Charaktere (Daz Genesis 8/9, Reallusion CC3/CC4, Mixamo, ReadyPlayerMe)
ARKit bietet einen umfassenden Satz an Blendshapes für Gesichtsanimationen, einschließlich verschiedener Mundformen. So ordnen Sie sie den RuntimeMetaHumanLipSync-Visemen zu:
RuntimeMetaHumanLipSync Viseme | ARKit-Äquivalent | Hinweise |
---|---|---|
Sil | mouthClose | Die neutrale/Ruheposition |
PP | mouthPressLeft + mouthPressRight | Für bilabiale Laute verwenden Sie beide Press-Shapes zusammen |
FF | lowerLipBiteLeft + lowerLipBiteRight | Diese erzeugen den "f/v"-Kontakt zwischen Lippen und Zähnen |
TH | tongueOut | ARKit bietet direkte Zungensteuerung |
DD | jawOpen (leicht) + tongueUp | Kombinieren Sie leichte Kieferöffnung mit Zungenposition |
KK | mouthLeft oder mouthRight (leicht) | Leichtes Ziehen der Mundwinkel nähert velare Laute an |
CH | jawOpen (leicht) + mouthFunnel (leicht) | Kombinieren Sie für postalveolare Laute |
SS | mouthFrown | Verwenden Sie ein leichtes Stirnrunzeln für Zischlaute |
NN | jawOpen (sehr leicht) + mouthClose | Fast geschlossener Mund mit leichter Kieferöffnung |
RR | mouthPucker (leicht) | Leichte Rundung für R-Laute |
AA | jawOpen + mouthOpen | Kombiniert für weit geöffnete Vokallaute |
E | jawOpen (leicht) + mouthSmile | Mittel-offene Position mit leichtem Lächeln |
IH | mouthSmile (leicht) | Leicht gespreizte Lippen |
OH | mouthFunnel | Gerundete, offene Form |
OU | mouthPucker | Stark gerundete Lippen |
FACS (Facial Action Coding System) verwendet Action Units (AUs), um Gesichtsbewegungen zu beschreiben. Viele professionelle Animationssysteme nutzen FACS-basierte Ansätze:
RuntimeMetaHumanLipSync Viseme | FACS Action Units | Hinweise |
---|---|---|
Sil | Neutral | Keine aktiven AUs |
PP | AU23 + AU24 | Lippenpresser + Lippenstraffer |
FF | AU22 + AU28 | Lippentrichter + Lippensauger |
TH | AU25 (leicht) + AU27 | Getrennte Lippen + Munddehnung |
DD | AU25 + AU16 | Getrennte Lippen + Unterlippensenker |
KK | AU26 + AU14 | Kieferöffnung + Grübchenbildner |
CH | AU18 + AU25 | Lippenspitzen + getrennte Lippen |
SS | AU20 | Lippenstrecker |
NN | AU25 (sehr leicht) | Leicht getrennte Lippen |
RR | AU18 (leicht) | Leichtes Lippenspitzen |
AA | AU27 + AU26 | Munddehnung + Kieferöffnung |
E | AU25 + AU12 | Getrennte Lippen + Mundwinkelheber |
IH | AU12 + AU25 (leicht) | Mundwinkelheber + leicht getrennte Lippen |
OH | AU27 (leicht) + AU18 | Leichte Munddehnung + Lippenspitzen |
OU | AU18 + AU26 (leicht) | Lippenspitzen + leichte Kieferöffnung |
Das Preston-Blair-System ist ein klassischer Animationsstandard, der beschreibende Namen für Mundformen verwendet:
RuntimeMetaHumanLipSync Viseme | Preston Blair | Hinweise |
---|---|---|
Sil | Rest | Neutrale, geschlossene Mundposition |
PP | MBP | Die klassische "MBP"-Mundform |
FF | FV | Die "FV"-Position mit Zähnen auf der Unterlippe |
TH | TH | Zunge berührt Vorderzähne |
DD | D/T/N | Ähnliche Position für diese Konsonanten |
KK | CKG | Harte Konsonantenposition |
CH | CH/J/SH | Leichte Schmollmundform für diese Laute |
SS | S/Z | Leicht geöffnete Zahnposition |
NN | N/NG/L | Ähnlich wie D/T, aber andere Zungenposition |
RR | R | Gerundete Lippen für R-Laut |
AA | AI | Weit geöffneter Mund |
E | EH | Mittel geöffneter Mund |
IH | EE | Gespreizte Lippen |
OH | OH | Gerundete, mittlere Öffnung |
OU | OO | Stark gerundete Lippen |
3ds Max verwendet ein phonembasiertes System für sein Character Studio:
RuntimeMetaHumanLipSync Viseme | 3ds Max Phonem | Hinweise |
---|---|---|
Sil | rest | Standard-Mundposition |
PP | p_b_m | Direktes Äquivalent |
FF | f_v | Direktes Äquivalent |
TH | th | Direktes Äquivalent |
DD | t_d | Direktes Äquivalent |
KK | k_g | Direktes Äquivalent |
CH | sh_zh_ch | Kombinierte Form |
SS | s_z | Direktes Äquivalent |
NN | n_l | Kombiniert für diese Laute |
RR | r | Direktes Äquivalent |
AA | ah | Offener Vokallaut |
E | eh | Mittlerer Vokal |
IH | ee | Geschlossener Vorderzungenvokal |
OH | oh | Hinterer, gerundeter Vokal |
OU | oo | Geschlossener Hinterzungenvokal |
Benutzerdefinierte Charaktere mit Visem- oder Mund-Blendshapes/Morphtargets (Daz Genesis 8/9, Reallusion CC3/CC4, Mixamo, ReadyPlayerMe usw.) können in der Regel mit angemessenen Annäherungen dem Visem-System des Plugins zugeordnet werden.
Erstellen eines benutzerdefinierten Pose-Assets
Folgen Sie diesen Schritten, um ein benutzerdefiniertes Pose-Asset für Ihren Charakter zu erstellen, das mit dem Blend Runtime MetaHuman Lip Sync
-Node verwendet wird:
1. Suchen Sie das Skeletal Mesh Ihres Charakters
Finden Sie das Skeletal Mesh, das die Morph Targets (Blend Shapes) enthält, die Sie für die Lippenanimation verwenden möchten. Dies könnte ein Ganzkörper-Mesh oder nur ein Gesichts-Mesh sein, abhängig vom Design Ihres Charakters.
2. Überprüfen Sie verfügbare Morph Targets
Stellen Sie sicher, dass Ihr Skeletal Mesh geeignete Morph Targets hat, die als Viseme für die Lippenanimation verwendet werden können. Die meisten Charaktere mit Gesichtsanimation sollten einige Phonem-/Visem-Morph Targets unterstützen.
3. Erstellen Sie eine Referenz-Pose-Animation
- Gehen Sie zu
Create Asset -> Create Animation -> Reference Pose
- Geben Sie einen beschreibenden Namen für die Animationssequenz ein und speichern Sie sie an einem geeigneten Ort
- Die erstellte Animationssequenz öffnet sich automatisch und zeigt eine leere Animation in einer Schleife an
- Klicken Sie auf die
Pause
-Schaltfläche, um die Wiedergabe für einfacheres Bearbeiten zu stoppen
4. Bearbeiten Sie die Animationssequenz
- Klicken Sie auf
Edit in Sequencer
->Edit with FK Control Rig
- Klicken Sie im Dialog
Bake to Control Rig
auf die SchaltflächeBake to Control Rig
, ohne Einstellungen zu ändern
- Der Editor wechselt in den
Animation Mode
mit geöffnetemSequencer
-Tab - Setzen Sie das
View Range End Time
auf 0016 (wodurch automatisch auchWorking Range End
auf 0016 gesetzt wird) - Ziehen Sie den rechten Rand des Schiebereglers an das rechte Ende des Sequencer-Fensters
5. Animation Curves vorbereiten
- Kehren Sie zur Animation Sequence Asset zurück und suchen Sie die Morph Targets in der
Curves
-Liste (falls sie nicht sichtbar sind, schließen und öffnen Sie die Animation Sequence Asset erneut) - Entfernen Sie alle Morph Targets, die nicht mit Visemen oder Mundbewegungen zusammenhängen, die Sie für Lip Sync verwenden möchten
6. Planen Sie Ihre Visem-Zuordnung
Erstellen Sie einen Zuordnungsplan, um die Viseme Ihres Charakters mit dem vom Plugin benötigten Satz abzugleichen. Zum Beispiel:
Sil -> Sil
PP -> FV
FF -> FV
TH -> TH
DD -> TD
KK -> KG
CH -> CH
SS -> SZ
NN -> NL
RR -> RR
AA -> AA
E -> E
IH -> IH
OH -> O
OU -> U
Hinweis: Es ist akzeptabel, wiederholte Zuordnungen zu haben, wenn der Visem-Satz Ihres Charakters keine exakten Entsprechungen für jedes benötigte Visem hat.
7. Animieren Sie jedes Visem
- Animieren Sie für jedes Visem die relevanten Morph-Target-Kurven von 0.0 bis 1.0
- Starten Sie jede Visem-Animation auf einem anderen Frame
- Konfigurieren Sie zusätzliche Kurven nach Bedarf (Kiefer-/Mundöffnung, Zungenposition etc.), um natürlich aussehende Visem-Formen zu erstellen
8. Erstellen eines Pose-Assets
- Gehen Sie zu
Create Asset
->Pose Asset
->Current Animation
- Vergeben Sie einen beschreibenden Namen für das Pose-Asset und speichern Sie es an einem geeigneten Ort
- Das erstellte Pose-Asset öffnet automatisch und zeigt Posen wie
Pose_0
,Pose_1
etc., die jeweils einem Visem entsprechen - Überprüfen Sie die Visem-Gewichtungen, um sicherzustellen, dass sie wie erwartet funktionieren
9. Finalisieren des Pose-Assets
- Benennen Sie jede Pose entsprechend den Visem-Namen aus dem Abschnitt Voraussetzungen um
- Löschen Sie nicht verwendete Posen
Einrichtung der Audio-Verarbeitung und Blending
Sobald Ihr Pose-Asset bereit ist, müssen Sie die Audio-Verarbeitungs- und Blending-Knoten einrichten:
- Suchen oder erstellen Sie das Animation Blueprint Ihres Charakters
- Richten Sie die Audio-Verarbeitung und das Blending gemäß den gleichen Schritten wie im standard plugin setup guide dokumentiert ein
- Wählen Sie im
Blend Runtime MetaHuman Lip Sync
-Knoten Ihr benutzerdefiniertes Pose-Asset anstelle des standardmäßigen MetaHuman-Pose-Assets aus
Kombination mit Körperanimationen
Wenn Sie Lip Sync zusammen mit anderen Körperanimationen durchführen möchten:
- Folgen Sie den gleichen Schritten wie im standard plugin guide dokumentiert
- Stellen Sie sicher, dass Sie die korrekten Knochennamen für das Skelett des Halses Ihres Charakters angeben, anstatt die MetaHuman-Knochennamen zu verwenden
Ergebnisse
Hier sind Beispiele für benutzerdefinierte Charaktere, die dieses Setup verwenden:
Die Qualität des Lip Sync hängt weitgehend vom spezifischen Charakter und der Qualität der Visem-Einrichtung ab. Die obigen Beispiele zeigen das Plugin in Aktion mit verschiedenen Arten von benutzerdefinierten Charakteren mit unterschiedlichen Visem-Systemen.