如何使用该插件
本指南将引导您完成为您的 MetaHuman 角色设置 Runtime MetaHuman Lip Sync 的过程。
注意: Runtime MetaHuman Lip Sync 可与 MetaHuman 和 自定义角色 一起使用。该插件支持多种角色类型,包括:
- 流行的商业角色(Daz Genesis 8/9、Reallusion CC3/CC4、Mixamo、ReadyPlayerMe 等)
- 具有 基于 FACS 的混合变形的角色
- 使用 ARKit 混合变形标准的模型
- 具有 Preston Blair 音素集的角色
- 3ds Max 音素系统
- 任何具有用于面部表情的自定义变形目标的角色
有关设置自定义角色的详细说明,包括上述所有标准的视位映射参考,请参阅 自定义角色设置指南。
先决条件
在开始之前,请确保:
- MetaHuman 插件已在您的项目中启用(注意:从 UE 5.6 开始,此步骤不再需要,因为 MetaHuman 功能已直接集成到引擎中)
- 您至少有一个 MetaHuman 角色已下载并可在您的项目中使用
- Runtime MetaHuman Lip Sync 插件已安装
标准模型扩展插件
如果您计划使用 标准(更快)模型,您需 要安装扩展插件:
- 从 Google Drive 下载 标准唇形同步扩展插件
- 将下载的压缩包中的文件夹解压到您项目的
Plugins
文件夹中(如果该文件夹不存在,请创建它) - 确保您的项目设置为 C++ 项目(即使您没有任何 C++ 代码)
- 重新构建您的项目
- 此扩展 仅在 您想要使用 标准模型 时才需要。如果您只需要 真实模型,可以跳过此步骤。
- 有关如何手动构建插件的更多信息,请参阅 构建插件教程
附加插件
- 如果您计划使用音频捕获(例如,麦克风输入),请安装 Runtime Audio Importer 插件。
- 如果您计划将文本转语音功能与我的插件一起使用(您可能有自己的自定义 TTS 或其他音频输入),那么除了 Runtime Audio Importer 插件外,还需安装:
- 对于本地 TTS,安装 Runtime Text To Speech 插件。
- 对于外部 TTS 提供商(ElevenLabs、OpenAI),安装 Runtime AI Chatbot Integrator 插件。
设置流程
步骤 1:定位并修改面部动画 Blueprint
- UE 5.5 及更早版本(或 UE 5.6+ 中的传统 MetaHumans)
- UE 5.6+ MetaHuman Creator 角色
您需要修改一个将用于 MetaHuman 角色面部动画的 Animation Blueprint。默认的 MetaHuman 面部 Animation Blueprint 位于:
Content/MetaHumans/Common/Face/Face_AnimBP
你有多种选项来实现唇形同步功能:
- 直接编辑默认资源(最简单选项)
- 创建副本
- 使用自定义动画蓝图
直接打开默认的 Face_AnimBP
并进行修改。任何更改都会影响所有使用此动画蓝图的 MetaHuman 角色。
注意: 这种方法很方便,但会影响所有使用默认动画蓝图的角色。
- 复制
Face_AnimBP
并为其指定一个描述性名称 - 找到你的角色蓝图类(例如 ,对于角色 "Bryan",它位于
Content/MetaHumans/Bryan/BP_Bryan
) - 打开角色蓝图并找到 Face 组件
- 将 Anim Class 属性更改为你新复制的动画蓝图
注意: 这种方法允许你为特定角色自定义唇形同步,同时保持其他角色不变。
你可以在任何能够访问所需面部骨骼的动画蓝图中实现唇形同步混合:
- 创建或使用现有的自定义动画蓝图
- 确保你的动画蓝图适用于包含与默认 MetaHuman 的
Face_Archetype_Skeleton
(这是任何 MetaHuman 角色使用的标准骨架)相同面部骨骼的骨架
注意: 这种方法为你提供了与自定义动画系统集成的最大灵活性。
从 UE 5.6 开始,引入了新的 MetaHuman Creator 系统,该系统创建的角色没有传统的 Face_AnimBP
资源。对于这些角色,插件提供了一个面部动画蓝图,位于:
Content/LipSyncData/LipSync_Face_AnimBP
此 Animation Blueprint 位于插件的内容文件夹中,每次插件更新时都会被覆盖。为防止丢失自定义设置,强烈建议您:
- 将此资源复制到项目的 Content 文件夹中(例如,复制到
YourProject/Content/MetaHumans/LipSync_Face_AnimBP
) - 在角色设置中使用您复制的版本
- 所有修改都在复制的版本上进行
这能确保您的唇形同步配置在插件更新后得以保留。
使用插件的面部 Animation Blueprint:
- 找到您的 MetaHuman Creator 角色的 Blueprint 类
- 打开角色 Blueprint 并找到 Face 组件
- 将 Anim Class 属性更改为插件的
LipSync_Face_AnimBP
- 继续执行步骤 2-4 以配置 Runtime MetaHuman Lip Sync 功能
替代选项:
- 使用旧版说明: 如果您正在使用旧版 MetaHumans 或偏好传统工作流程,仍可遵循上述 UE 5.5 的说明
- 创建自定义 Animation Blueprint: 创建您自己的、与 MetaHuman Creator 骨架结构兼容的 Animation Blueprint
注意: 如果您使用的是 UE 5.6+ 但正在处理旧版 MetaHumans(非通过 MetaHuman Creator 创建),请改用 "UE 5.5 and Earlier" 标签页中的说明。
重要: Runtime MetaHuman Lip Sync 混合可以在任何能够访问包含默认 MetaHuman Face_Archetype_Skeleton
中存在的面部骨骼的姿势的 Animation Blueprint 资源中实现。您不限于上述选项——这些只是常见的实现方法。
步骤 2:事件图表设置
打开您的面部 Animation Blueprint 并切换到 Event Graph
。您需要创建一个生成器来处理音频数据并生成唇形同步动画。
- 标准(更快)模型
- 逼真(更高质量)模型
- 如果尚不存在,请添加
Event Blueprint Begin Play
节点 - 添加
Create Runtime Viseme Generator
节点并将其连接到 Begin Play 事件 - 将输出保存为变量(例如 "VisemeGenerator")以供图表其他部分使用
- 如果尚不存在,请添加
Event Blueprint Begin Play
节点 - 添加
Create Realistic MetaHuman Lip Sync Generator
节点并将其连接到 Begin Play 事件 - 将输出保存为变量(例如 "RealisticLipSyncGenerator")以供图表其他部分使用
- (可选)使用 Configuration 参数配置生成器设置
- (可选)在 Realistic MetaHuman Lip Sync Generator 对象上设置 Processing Chunk Size

注意: Realistic Model 专门针对 MetaHuman 角色进行了优化,与自定义角 色类型不兼容。
配置选项
Create Realistic MetaHuman Lip Sync Generator
节点接受一个可选的 Configuration 参数,允许您自定义生成器的行为:
模型类型
Model Type 设置决定了使用哪个版本的逼真模型:
模型类型 | 性能 | 视觉质量 | 噪音处理 | 推荐使用场景 |
---|---|---|---|---|
Highly Optimized (默认) | 最高性能,最低 CPU 使用率 | 良好质量 | 可能在背景噪音或非语音声音下显示明显的嘴部动作 | 干净的音频环境,性能关键场景 |
Optimized | 良好性能,中等 CPU 使用率 | 高质量 | 对嘈杂音频具有更好的稳定性 | 平衡性能与质量,混合音频条件 |
Original Unoptimized | 适用于现代 CPU 的实时使用 | 最高质量 | 对背景噪音和非语音声音最稳定 | 高质量制作,嘈杂音频环境,需要最大精度时 |
性能设置
Intra Op Threads: 控制用于内部模型处理操作的线程数。
- 0 (默认/自动): 使用自动检测(通常为可用 CPU 核心数的 1/4,最多 4 个)
- 1-16: 手动指定线程数。较高的值可能会在多核系统上提高性能,但会使用更多 CPU
Inter Op Threads: 控制用于并行执行不同模型操作的线程数。
- 0 (默认/自动): 使用自动检测(通常为可用 CPU 核心数的 1/8,最多 2 个)
- 1-8: 手动指定线程数。通常为实时处理保持较低值
使用配置
要配置生成器:
- 在
Create Realistic MetaHuman Lip Sync Generator
节点中,展开 Configuration 参数 - 将 Model Type 设置为您偏好的选项:
- 使用 Highly Optimized 以获得最佳性能(推荐大多数用户使用)
- 使用 Optimized 以平衡性能和质量
- 仅在质量至关重要时使用 Original Unoptimized
- 如果需要,调整 Intra Op Threads 和 Inter Op Threads(在大多数情况下保留为 0 以进行自动检测) 性能推荐:
- 对于大多数具有清晰音频的项目,使用高度优化模型以获得最佳性能
- 如果您处理的音频包含背景噪音、音乐或非人声,请考虑使用优化或原始未优化模型以获得更好的稳定性
- 高度优化模型在处理非人声音频时可能会显示细微的嘴部运动,这是由于模型创建过程中应用的优化技术所致
- 原始未优化模型虽然需要更多 CPU 资源,但仍适用于现代硬件的实时应用,并在具有挑战性的音频条件下提供最准确的结果
- 仅在遇到性能问题或有特定优化需求时调整线程数
- 更高的线程数并不总是意味着更好的性能——最佳值取决于您的具体硬件和项目需求
处理块大小配置: 处理块大小决定了每次推理步骤中处理的样本数量。默认值为160 个样本,对应于 16kHz(内部处理采样率)下 10ms 的音频。您可以调整此值以在更新频率和 CPU 使用率之间取得平衡:
- 较小的值提供更频繁的更新,但会增加 CPU 使用率
- 较大的值减少 CPU 负载,但可能会降低唇形同步的响应速度
要设置处理块大小:
- 访问您的
Realistic MetaHuman Lip Sync Generator
对象 - 找到
Processing Chunk Size
属性 - 设置您所需的值
建议使用160 的倍数。这与模型的内部处理结构对齐。推荐值包括:
160
(默认,最小推荐值)320
480
640
- 等等
默认的处理块大小 160
个样本对应于 16kHz 下 10ms 的音频。使用 160 的倍数可以保持与此基本单位的对齐,这有助于优化处理效率并在不同块大小下保持一致的行为。
为了确保 Realistic Model 的可靠和一致运行,每次在静默一段时间后想要输入新的音频数据时,必须重新创建 Realistic MetaHuman Lip Sync Generator。这是由于 ONNX 运行时的行为可能导致在静默期后重用生成器时唇形同步停止工作。
示例场景: 如果您执行了 TTS 唇形同步然后停止,稍后想要使用新音频再次执行唇形同步,请创建一个新的 Realistic MetaHuman Lip Sync Generator,而不是重用现有的生成器。
步骤 3:设置音频输入处理
您需要设置一种处理音频输入的方法。根据您的音频源,有几种方法可以实现这一点。
- 麦克风(实时)
- 麦克风(回放)
- Text-to-Speech (Local)
- Text-to-Speech (External APIs)
- 来自音频文件/缓冲区
- 流式 音频缓冲区
此方法在对着麦克风说话时实时执行唇形同步:
- 标准(更快)模型
- 真实(更高质量)模型
- 使用 Runtime Audio Importer 创建一个 Capturable Sound Wave
- 在开始捕获音频之前,绑定到
OnPopulateAudioData
委托 - 在绑定的函数中,从您的 Runtime Viseme Generator 调用
ProcessAudioData
- 开始从麦克风捕获音频
真实模型使用与标准模型相同的音频处理工作流,但使用 RealisticLipSyncGenerator
变量而不是 VisemeGenerator
。
在标准模型所示的每个示例中,只需替换:
VisemeGenerator
替换为您的RealisticLipSyncGenerator
变量- 函数名称和参数在两个模型之间保持相同
此方法从麦克风捕获音频,然后通过唇形同步进行回放:
- 标准(更快)模型
- Realistic (Higher Quality) Model
- 使用 Runtime Audio Importer 创建一个 Capturable Sound Wave
- 开始从麦克风捕获音频
- 在回放可捕获声波之前,绑定到其
OnGeneratePCMData
委托 - 在绑定的函数中,从您的 Runtime Viseme Generator 调用
ProcessAudioData
Realistic 模型使用与 Standard 模型 相同的音频处理工作流,但使用 RealisticLipSyncGenerator
变量而非 VisemeGenerator
。
在 Standard 模型的每个示例中,只需替换:
VisemeGenerator
为你的RealisticLipSyncGenerator
变量- 函数名称和参数在两个模型之间保持相同
注意: 如果你希望以更小的音频块进行处理以获得更灵敏的唇形同步,请调整 SetNumSamplesPerChunk
函数中的计算。例如,将采样率除以 150(约每 6.67 毫秒流式传输一次)而不是 100(每 10 毫秒流式传输一次),将提供更频繁的唇形同步更新。
- Regular
- Streaming
此方法从文本合成语音并执行唇形同步:
- Standard (Faster) Model
- Realistic (Higher Quality) Model
- 使用 Runtime Text To Speech 从文本生成语音
- 使用 Runtime Audio Importer 导入合成的音频
- 在播放导入的声波之前,绑定到其
OnGeneratePCMData
委托 - 在绑定的函数中,从你的 Runtime Viseme Generator 调用
ProcessAudioData
由于 ONNX 运行时冲突,Runtime Text To Speech 插件提供的本地 TTS 目前不支持 Realistic 模型。如需在 Realistic 模型中使用文本转语音,请考虑使用外部 TTS 服务(例如通过 Runtime AI Chatbot Integrator 使用 OpenAI 或 ElevenLabs)或改用 Standard 模型。
注意: 如果你希望以更小的音频块进行处理以获得更灵敏的唇形同步,请调整 SetNumSamplesPerChunk
函数中的计算。例如,将采样率除以 150(约每 6.67 毫秒流式传输一次)而不是 100(每 10 毫秒流式传输一次),将提供更频繁的唇形同步更新。
此方法使用流式文本转语音合成与实时唇形同步:
- Standard (Faster) Model
- Realistic (Higher Quality) Model
- 使用 Runtime Text To Speech 从文本生成流式语音
- 使用 Runtime Audio Importer 导入合成音频
- 在播放流式声波前,绑定到其
OnGeneratePCMData
委托 - 在绑定的函数中,调用 Runtime Viseme Generator 的
ProcessAudioData
Runtime Text To Speech 插件提供的本地 TTS 目前不支持 Realistic 模型,原因是存在 ONNX 运行时冲突。如需在 Realistic 模型中使用文本转语音,请考虑使用外部 TTS 服务(例如通过 Runtime AI Chatbot Integrator 使用 OpenAI 或 ElevenLabs)或改用 Standard 模型。
注意: 如果您希望处理更小的音频块以实现更灵敏的唇形同步,请调整 SetNumSamplesPerChunk
函数中的计算。例如,将采样率除以 150(约每 6.67 毫秒流式传输一次)而不是 100(每 10 毫秒流式传输一次)将提供更频繁的唇形同步更新。
- Regular
- Streaming
此方法使用 Runtime AI Chatbot Integrator 插件从 AI 服务(OpenAI 或 ElevenLabs)生成合成语音并执行唇形同步:
- Standard (Faster) Model
- Realistic (Higher Quality) Model
- 使用 Runtime AI Chatbot Integrator 通过外部 API(OpenAI、ElevenLabs 等)从文本生成语音
- 使用 Runtime Audio Importer 导入合成音频数据
- 在播放导入的声波前,绑定到其
OnGeneratePCMData
委托 - 在绑定的函数中,调用 Runtime Viseme Generator 的
ProcessAudioData

Realistic(更高质量)模型使用与 Standard 模型相同的音频处理工作流,但使用 RealisticLipSyncGenerator
变量而非 VisemeGenerator
。
在 Standard 模型所示的每个示例中,只需替换:
VisemeGenerator
为你的RealisticLipSyncGenerator
变量- 函数名称和参数在两个模型之间保持相同
注意: 如果你想以更小的音频块进行处理以获得更响应的唇形同步,请调整 SetNumSamplesPerChunk
函数中的计算。例如,将采样率除以 150(约每 6.67 毫秒流式传输一次)而不是 100(每 10 毫秒流式传输一次)将提供更频繁的唇形同步更新。
此方法使用 Runtime AI Chatbot Integrator 插件从 AI 服务(OpenAI 或 ElevenLabs)生成合成的流式语音并执行唇形同步:
- Standard (Faster) Model
- Realistic (Higher Quality) Model
- 使用 Runtime AI Chatbot Integrator 连接到流式 TTS API(如 ElevenLabs Streaming API)
- 使用 Runtime Audio Importer 导入合成的音频数据
- 在播放流式声波之前,绑定到其
OnGeneratePCMData
委托 - 在绑定的函数中,从你的 Runtime Viseme Generator 调用
ProcessAudioData
Realistic(更高质量)模型使用与 Standard 模型相同的音频处理工作流,但使用 RealisticLipSyncGenerator
变量而非 VisemeGenerator
。
在 Standard 模型所示的每个示例中,只需替换:
VisemeGenerator
为你的RealisticLipSyncGenerator
变量- 函数名称和参数在两个模型之间保持相同
注意: 如果您希望以更小的音频数据块进行处理以获得更灵敏的唇形同步,请调整 SetNumSamplesPerChunk
函数中的计算。例如,将采样率除以 150(约每 6.67 毫秒流式传输一次)而不是 100(每 10 毫秒流式传输一次),将提供更频繁的唇形同步更新。
此方法使用预录制的音频文件或音频缓冲区进行唇形同步:
- 标准(更快)模型
- 逼真(更高质量)模型
- 使用 Runtime Audio Importer 从磁盘或内存导入音频文件
- 在播放导入的声波之前,绑定到其
OnGeneratePCMData
委托 - 在绑定的函数中,从您的 Runtime Viseme Generator 调用
ProcessAudioData
- 播放导入的声波并观察唇形同步动画
逼真模型使用与标准模型相同的音频处理工作流,但使用 RealisticLipSyncGenerator
变量而不是 VisemeGenerator
。
在标准模型所示的每个示例中,只需替换:
VisemeGenerator
为您的RealisticLipSyncGenerator
变量- 函数名称和参数在两个模型之间保持相同
注意: 如果您希望以更小的音频数据块进行处理以获得更灵敏的唇形同步,请调整 SetNumSamplesPerChunk
函数中的计算。例如,将采样率除以 150(约每 6.67 毫秒流式传输一次)而不是 100(每 10 毫秒流式传输一次),将提供更频繁的唇形同步更新。
对于从缓冲区流式传输音频数据,您需要:
- 标准(更快)模型
- 真实(更高质量)模型
- 来自流式源的浮点 PCM 格式音频数据(浮点样本数组)
- 采样率和声道数
- 当音频块可用时,使用这些参数调用 Runtime Viseme Generator 的
ProcessAudioData
以下是从流式音频数据处理唇形同步的示例:
注意: 使用流式音频源时,请确保适当管理音频播放时序以避免播放失真。有关正确的流式音频管理,请参阅流式声波文档。
注意: 如果您希望以更小的块处理音频数据以获得更响应的唇形同步,请调整 SetNumSamplesPerChunk
函数中的计算。例如,将采样率除以 150(约每 6.67 毫秒流式传输一次)而不是 100(每 10 毫秒流式传输一次)将提供更频繁的唇形同步更新。
步骤 4:动画图表设置
设置事件图表后,切换到 Anim Graph
以将生成器连接到角色的动画:
唇形同步
- 标准(更快)模型
- 写实(更高质量)模型
- 找到包含 MetaHuman 面部的姿势(通常来自
Use cached pose 'Body Pose'
) - 添加
Blend Runtime MetaHuman Lip Sync
节点 - 将姿势连接到
Blend Runtime MetaHuman Lip Sync
节点的Source Pose
- 将你的
RuntimeVisemeGenerator
变量连接到Viseme Generator
引脚 - 将
Blend Runtime MetaHuman Lip Sync
节点的输出连接到Output Pose
的Result
引脚
当在音频中检测到唇形同步时,你的角色将相应地动态动画化:
- 找到包含 MetaHuman 面部的姿势(通常来自
Use cached pose 'Body Pose'
) - 添加
Blend Realistic MetaHuman Lip Sync
节点 - 将姿势连接到
Blend Realistic MetaHuman Lip Sync
节点的Source Pose
- 将你的
RealisticLipSyncGenerator
变量连接到Lip Sync Generator
引脚 - 将
Blend Realistic MetaHuman Lip Sync
节点的输出连接到Output Pose
的Result
引脚
写实模型提供增强的视觉质量,具有更自然的嘴部运动:
注意: 写实模型专为 MetaHuman 角色设计,与自定义角色类型不兼容。
笑声动画
你还可以添加笑声动画,这些动画将动态响应在音频中检测到的笑声:
- 添加
Blend Runtime MetaHuman Laughter
节点 - 将你的
RuntimeVisemeGenerator
变量连接到Viseme Generator
引脚 - 如果你已经在使用唇形同步:
- 将
Blend Runtime MetaHuman Lip Sync
节点的输出连接到Blend Runtime MetaHuman Laughter
节点的Source Pose
- 将
Blend Runtime MetaHuman Laughter
节点的输出连接到Output Pose
的Result
引脚
- 将
- 如果仅使用笑声而不使用唇形同步:
- 将你的源姿势直接连接到
Blend Runtime MetaHuman Laughter
节点的Source Pose
- 将输出连接到
Result
引脚
- 将你的源姿势直接连接到
当在音频中检测到笑声时,你的角色将相应地动态动画化:
与面部和身体动画结合
要在不覆盖现有身体动画和自定义面部动画(如表情、情绪或其他面部动作)的情况下应用唇形同步和笑声:
- 在身体动画和最终输出之间添加一个
Layered blend per bone
节点。确保Use Attached Parent
为 true。 - 配置层级设置:
- 在
Layer Setup
数组中添加 1 项 - 为该层级的
Branch Filters
添加 3 项,使用以下Bone Name
:FACIAL_C_FacialRoot
FACIAL_C_Neck2Root
FACIAL_C_Neck1Root
- 在
- 对于自定义面部动画很重要: 在
Curve Blend Option
中,选择 "Use Max Value"。这允许自定义面部动画(表情、情绪等)正确叠加在唇形同步之上。 - 进行连接:
- 现有动画(如
BodyPose
)→Base Pose
输入 - 面部动画输出(来自唇形同步和/或笑声节点)→
Blend Poses 0
输入 - 分层混合节点 → 最终的
Result
姿势
- 现有动画(如
为什么这样有效: 分支过滤器隔离了面部动画骨骼,允许唇形同步和笑声仅与面部动作混合,同时保留原始身体动画。"Use Max Value" 曲线混合选项会取每条曲线的最大值,而不是将它们相加混合,这使得自定义面部动画(如表情和情绪)能够与唇形同步正确结合而不产生冲突。这 与 MetaHuman 面部骨骼结构相匹配,实现自然集成。
注意: 唇形同步和笑声功能设计为非破坏性地与您现有的动画设置协同工作。它们仅影响嘴部动作所需的特定面部骨骼,保持其他面部动画不变。这意味着您可以安全地在动画链的任何阶段集成它们——可以在其他面部动画之前(允许这些动画覆盖唇形同步/笑声)或之后(让唇形同步/笑声叠加在您现有的动画之上)。这种灵活性使您能够将唇形同步和笑声与眨眼、眉毛动作、情绪表情和其他面部动画结合使用,而不会产生冲突。
微调唇形同步行为
设置基本唇形同步功能后,您可能需要微调嘴部动作的特定方面,以更好地满足项目需求。
舌头伸出控制
在标准唇形同步模型中,您可能会注意到在某些音素期间舌头过度向前移动。要控制舌头伸出:
- 在
Blend Runtime MetaHuman Lip Sync
或Blend Realistic MetaHuman Lip Sync
节点之后,添加一个Modify Curve
节点 - 右键点击
Modify Curve
节点并选择 添加曲线引脚 (Add Curve Pin) - 添加一个名为
CTRL_expressions_tongueOut
的曲线引脚 - 将节点的 应用模式 (Apply Mode) 属性设置为 缩放 (Scale)
- 调整 值 (Value) 参数以控制舌头伸出程度(例如,设为 0.8 可将伸出程度减少 20%)
下颌张开控制
根据您的音频内容和视觉需求,逼真口型同步可能会产生过于敏感的下颌运动。要调整下颌张开强度:
- 在口型同步混合节点之后,添加一个
Modify Curve
节点 - 右键点击
Modify Curve
节点并选择 添加曲线引脚 (Add Curve Pin) - 添加一个名为
CTRL_expressions_jawOpen
的曲线引脚 - 将节点的 应用模式 (Apply Mode) 属性设置为 缩放 (Scale)
- 调整 值 (Value) 参数以控制下颌张开范围(例如,设为 0.9 可将下颌运动减少 10%)
配置
口型同步配置
- 标准(更快)模型
- 逼真(更高质量)模型
Blend Runtime MetaHuman Lip Sync
节点在其属性面板中有配置选项:
属性 | 默认值 | 描述 |
---|---|---|
插值速度 (Interpolation Speed) | 25 | 控制口型在音素之间转换的速度。值越高,转换越快越突然。 |
重置时间 (Reset Time) | 0.2 | 口型同步重置前的持续时间(秒)。这有助于防止音频停止后口型同步继续运行。 |
Blend Realistic MetaHuman Lip Sync
节点在其属性面板中有配置选项:
属性 | 默认值 | 描述 |
---|---|---|
插值速度 (Interpolation Speed) | 30 | 控制口型在位置之间转换的速度。值越高,转换越快越突然。 |
重置时间 (Reset Time) | 0.2 | 口型同步重置前的持续时间(秒)。这有助于防止音频停止后口型同步继续运行。 |
笑声配置
Blend Runtime MetaHuman Laughter
节点有其自己的配置选项:
属性 | 默认值 | 描述 |
---|---|---|
插值速度 (Interpolation Speed) | 25 | 控制口型在笑声动画之间转换的速度。值越高,转换越快越突然。 |
重置时间 (Reset Time) | 0.2 | 笑声重置前的持续时间(秒)。这有助于防止音频停止后笑声继续运行。 |
最大笑声权重 (Max Laughter Weight) | 0.7 | 缩放笑声动画的最大强度(0.0 - 1.0)。 |