跳到主要内容

音频处理指南

本指南涵盖如何设置不同的音频输入方法,以向您的唇形同步生成器提供音频数据。请确保在继续之前已完成设置指南

音频输入处理

您需要设置一种方法来处理音频输入。根据您的音频源,有几种方法可以实现。

此方法在对着麦克风说话时实时执行唇形同步:

  1. 使用 Runtime Audio Importer 创建一个 Capturable Sound Wave
  2. 在开始捕获音频之前,绑定到 OnPopulateAudioData 委托
  3. 在绑定的函数中,从您的 Runtime Viseme Generator 调用 ProcessAudioData
  4. 开始从麦克风捕获音频

可复制的节点

音频捕获期间的唇形同步

处理性能提示

  • 块大小:增加 ProcessingChunkSize 配置选项(例如增加到 320、480 或 640 个样本)可以显著改善延迟,而对质量或响应性的影响最小。

  • 模型类型:使用真实感模型时,切换到高度优化的模型类型(默认选择)可以提高性能。请注意,原始模型可能会产生稍好的质量,尤其是在处理有噪声的音频时。

  • 缓冲区管理:支持情绪的模型以 320 样本帧(16kHz 下为 20ms)处理音频。确保您的音频输入时序与此对齐,以获得最佳性能。

  • 生成器重建:对于真实感模型的可靠操作,在经历一段不活动期后,每次想要馈送新音频数据时,请重新创建生成器。

后续步骤

设置好音频处理后,您可能希望:

  • 了解配置选项以微调您的唇形同步行为
  • 添加笑声动画以增强表现力
  • 使用配置指南中描述的分层技术将唇形同步与现有的面部动画相结合