Aller au contenu principal

Guide de Traitement Audio

Ce guide explique comment configurer différentes méthodes d'entrée audio pour alimenter vos générateurs de synchronisation labiale. Assurez-vous d'avoir terminé le Guide de Configuration avant de continuer.

Traitement de l'Entrée Audio

Vous devez configurer une méthode pour traiter l'entrée audio. Il existe plusieurs façons de procéder selon votre source audio.

Cette approche effectue la synchronisation labiale en temps réel pendant que vous parlez dans le microphone :

  1. Créez une Capturable Sound Wave en utilisant Runtime Audio Importer
  2. Avant de commencer à capturer l'audio, liez-vous au délégué OnPopulateAudioData
  3. Dans la fonction liée, appelez ProcessAudioData depuis votre Runtime Viseme Generator
  4. Commencez à capturer l'audio depuis le microphone

Nœuds copiables.

Lip Sync During Audio Capture

Conseils de performance de traitement

  • Taille des blocs : Si vous souhaitez traiter les données audio en blocs plus petits pour une synchronisation labiale plus réactive, ajustez le calcul dans la fonction SetNumSamplesPerChunk. Par exemple, diviser la fréquence d'échantillonnage par 150 (streaming toutes les ~6,67 ms) au lieu de 100 (streaming toutes les 10 ms) fournira des mises à jour de synchronisation labiale plus fréquentes.

  • Gestion du tampon : Le modèle avec humeur traite l'audio en trames de 320 échantillons (20 ms à 16 kHz). Assurez-vous que le timing de votre entrée audio s'aligne sur cela pour des performances optimales.

  • Recréation du générateur : Pour un fonctionnement fiable avec les modèles réalistes, recréez le générateur chaque fois que vous souhaitez envoyer de nouvelles données audio après une période d'inactivité.

Prochaines étapes

Une fois que vous avez configuré le traitement audio, vous pouvez :

  • Découvrir les options de configuration pour affiner le comportement de votre synchronisation labiale
  • Ajouter une animation de rire pour une expressivité améliorée
  • Combiner la synchronisation labiale avec des animations faciales existantes en utilisant les techniques de superposition décrites dans le guide de configuration