跳到主要内容

如何使用该插件

本指南将引导您完成为MetaHuman角色设置Runtime MetaHuman Lip Sync的过程。

注意: Runtime MetaHuman Lip Sync 同时适用于 MetaHuman自定义角色。该插件支持多种角色类型,包括:

  • 热门商业角色(Daz Genesis 8/9Reallusion CC3/CC4MixamoReadyPlayerMe 等)
  • 具有 FACS基础 混合变形的角色
  • 使用 ARKit 混合变形标准的模型
  • 采用 Preston Blair 音素集的角色
  • 3ds Max 音素系统
  • 任何带有自定义面部表情变形目标的角色

有关设置自定义角色的详细说明(包括上述所有标准的视位映射参考),请参阅 自定义角色设置指南

前提条件

开始之前,请确保:

  1. 项目中已启用 MetaHuman 插件
  2. 至少有一个MetaHuman角色已下载并可在项目中使用
  3. 已安装 Runtime MetaHuman Lip Sync 插件

附加插件:

平台特定配置

Android / Meta Quest 配置

如果针对Android或Meta Quest平台时遇到此插件的构建错误,您需要在项目设置中禁用x86_64 (x64) Android架构:

  1. 前往 编辑 > 项目设置
  2. 导航至 平台 > Android
  3. 平台 - Android 下的 构建 部分,找到 支持 x86_64 [即 x64] 并确保其已禁用,如下图所示

禁用x64 Android架构

这是因为该插件目前仅支持Android/Meta Quest平台的arm64-v8a和armeabi-v7a架构。

设置流程

步骤1:定位并修改面部动画蓝图

您需要修改一个将用于MetaHuman角色面部动画的动画蓝图。默认的MetaHuman面部动画蓝图位于:

Content/MetaHumans/Common/Face/Face_AnimBP

面部动画蓝图

您可以通过以下几种方式实现唇形同步功能:

直接打开默认的Face_AnimBP并进行修改。所有更改将影响所有使用此动画蓝图的MetaHuman角色。

注意: 此方法便捷但会影响所有使用默认动画蓝图的角色。

重要说明: Runtime MetaHuman Lip Sync混合可以在任何能访问包含默认MetaHumanFace_Archetype_Skeleton面部骨骼姿势的动画蓝图资源中实现。您不仅限于上述选项——这些只是常见的实现方法。

步骤2:事件图表设置

打开面部动画蓝图并切换到Event Graph。您需要创建一个Runtime Viseme Generator来处理音频数据并生成口型。

  1. 添加Event Blueprint Begin Play节点(如果尚不存在)
  2. 添加Create Runtime Viseme Generator节点并连接到Begin Play事件
  3. 将输出保存为变量(如"VisemeGenerator")以供图表其他部分使用

创建Runtime Viseme Generator

步骤3:设置音频输入处理

您需要设置处理音频输入的方法,具体取决于音频来源。

此方法在对着麦克风说话时实时执行唇形同步:

  1. 使用Runtime Audio Importer创建Capturable Sound Wave
  2. 开始捕获音频前,绑定到OnPopulateAudioData委托
  3. 在绑定函数中,从Runtime Viseme Generator调用ProcessAudioData
  4. 开始从麦克风捕获音频

可复制节点

音频捕获期间的唇形同步

步骤4:动画图表设置

设置事件图表后,切换到Anim Graph将口型生成器连接到角色动画:

唇形同步

  1. 定位包含MetaHuman面部的姿势(通常来自Use cached pose 'Body Pose'
  2. 添加Blend Runtime MetaHuman Lip Sync节点
  3. 将姿势连接到Blend Runtime MetaHuman Lip Sync节点的Source Pose
  4. RuntimeVisemeGenerator变量连接到Viseme Generator引脚
  5. Blend Runtime MetaHuman Lip Sync节点的输出连接到Output PoseResult引脚

混合Runtime MetaHuman唇形同步

当检测到音频中的唇形同步时,您的角色将相应动态动画:

唇形同步

笑声动画

您还可以添加动态响应音频中检测到的笑声的动画:

  1. 添加Blend Runtime MetaHuman Laughter节点
  2. RuntimeVisemeGenerator变量连接到Viseme Generator引脚
  3. 如果已使用唇形同步:
    • Blend Runtime MetaHuman Lip Sync节点的输出连接到Blend Runtime MetaHuman Laughter节点的Source Pose
    • Blend Runtime MetaHuman Laughter节点的输出连接到Output PoseResult引脚
  4. 如果仅使用笑声而无唇形同步:
    • 直接将源姿势连接到Blend Runtime MetaHuman Laughter节点的Source Pose
    • 将输出连接到Result引脚

混合Runtime MetaHuman笑声

当检测到音频中的笑声时,您的角色将相应动态动画:

笑声

与身体动画结合

要在不覆盖现有身体动画的情况下应用唇形同步和笑声:

  1. 在身体动画和最终输出之间添加Layered blend per bone节点。确保Use Attached Parent为true。
  2. 配置层级设置:
    • Layer Setup数组添加1项
    • 向该层的Branch Filters添加3项,使用以下Bone Name
      • FACIAL_C_FacialRoot
      • FACIAL_C_Neck2Root
      • FACIAL_C_Neck1Root
  3. 进行连接:
    • 现有动画(如BodyPose)→ Base Pose输入
    • 面部动画输出(来自唇形同步和/或笑声节点)→ Blend Poses 0输入
    • 分层混合节点→最终Result姿势

分层混合每骨骼

原理: 分支过滤器隔离面部动画骨骼,使唇形同步和笑声仅与面部动作混合,同时保留原始身体动画。这匹配MetaHuman面部绑定结构,确保自然集成。

注意: 唇形同步和笑声功能设计为非破坏性地与现有动画设置配合工作。它们仅影响嘴部运动所需的特定面部骨骼,保持其他面部动画不变。这意味着您可以安全地将它们集成到动画链的任何位置——既可以在其他面部动画之前(允许这些动画覆盖唇形同步/笑声),也可以在其后(让唇形同步/笑声在现有动画之上混合)。这种灵活性使您可以将唇形同步和笑声与眨眼、眉毛动作、情感表达和其他面部动画结合使用而不会冲突。

配置

唇形同步配置

Blend Runtime MetaHuman Lip Sync节点在其属性面板中有配置选项:

属性默认值描述
Interpolation Speed25控制口型动作在音素间过渡的速度。值越高,过渡越快速越突然。
Reset Time0.2音频停止后重置唇形同步的持续时间(秒)。有助于防止音频停止后唇形同步继续。

笑声配置

Blend Runtime MetaHuman Laughter节点有自己的配置选项:

属性默认值描述
Interpolation Speed25控制笑声动画间过渡的速度。值越高,过渡越快速越突然。
Reset Time0.2音频停止后重置笑声的持续时间(秒)。有助于防止音频停止后笑声继续。
Max Laughter Weight0.7缩放笑声动画的最大强度(0.0 - 1.0)。