Ana içeriğe geç

Eklentiyi Nasıl Kullanılır

Runtime AI Chatbot Integrator iki ana işlevsellik sağlar: Metinden Metne sohbet ve Metinden Sese (TTS). Her iki özellik de benzer bir iş akışını takip eder:

  1. API sağlayıcı token'ınızı kaydedin
  2. Özelliğe özgü ayarları yapılandırın
  3. İstek gönderin ve yanıtları işleyin

Sağlayıcı Token'ını Kaydet

Herhangi bir istek göndermeden önce, API sağlayıcı token'ınızı RegisterProviderToken işlevini kullanarak kaydedin.

not

Ollama yerel olarak çalışır ve bir API token'ı gerektirmez. Ollama için bu adımı atlayabilirsiniz.

Blueprint'te Sağlayıcı Token'ını Kaydet

Metin-Metin Sohbet İşlevselliği

Eklenti, her sağlayıcı için iki sohbet isteği modunu destekler:

Akışsız Sohbet İstekleri

Tam yanıtı tek bir çağrıda alın.

OpenAI Sohbet İsteği Gönder

Akış Sohbet İstekleri

Daha dinamik bir etkileşim için yanıt parçalarını gerçek zamanlı olarak alın.

OpenAI Akış Sohbet İsteği Gönder

Metinden Sese (TTS) İşlevselliği

Önde gelen TTS sağlayıcılarını kullanarak metni yüksek kaliteli konuşma sesine dönüştürün. Eklenti, projenizin ihtiyaçlarına göre işleyebileceğiniz ham ses verilerini (TArray<uint8>) döndürür.

Aşağıdaki örnekler, Runtime Audio Importer eklentisini kullanarak ses işleme ve oynatmayı gösterse de (bkz. ses içe aktarma belgeleri), Runtime AI Chatbot Integrator esnek olacak şekilde tasarlanmıştır. Eklenti yalnızca ham ses verilerini döndürür, böylece ses oynatma, dosyaya kaydetme, daha fazla ses işleme, diğer sistemlere iletme, özel görselleştirmeler ve daha fazlası gibi özel kullanım durumunuz için bu verileri nasıl işleyeceğiniz konusunda tam özgürlüğe sahip olursunuz.

Akışsız TTS İstekleri

Akışsız TTS istekleri, tüm metin işlendikten sonra tam ses verilerini tek bir yanıt olarak döndürür. Bu yaklaşım, tam sesin beklenmesinin sorun oluşturmadığı daha kısa metinler için uygundur.

OpenAI TTS İsteği Gönder

Streaming TTS İstekleri

Streaming TTS, ses parçalarını oluşturuldukları gibi teslim eder, böylece tüm sesin sentezlenmesini beklemek yerine verileri artımlı olarak işlemenize olanak tanır. Bu, uzun metinler için algılanan gecikmeyi önemli ölçüde azaltır ve gerçek zamanlı uygulamaları mümkün kılar. ElevenLabs Streaming TTS ayrıca dinamik metin oluşturma senaryoları için gelişmiş parçalı akış işlevlerini destekler.

OpenAI Streaming TTS İsteği Gönder

Mevcut Sesleri Alma

Bazı TTS sağlayıcıları, mevcut sesleri programlı olarak keşfetmek için ses listeleme API'leri sunar.

Google Cloud Seslerini Al

Ollama Modellerini Listeleme

Yerel Ollama örneğinizdeki tüm mevcut modelleri ListOllamaModels işlevini kullanarak sorgulayabilirsiniz. Bu, örneğin kullanıcı arayüzünüzdeki bir model seçiciyi dinamik olarak doldurmak için kullanışlı olabilir. GetModelNames yardımcı işlevi, kolaylık sağlamak için yalnızca sonuçtaki isim dizelerini çıkarır.

List Ollama Models

Hata İşleme

Herhangi bir istek gönderirken, geri çağrınızda ErrorStatus'u kontrol ederek potansiyel hataları işlemek çok önemlidir. ErrorStatus, istek sırasında oluşabilecek herhangi bir sorun hakkında bilgi sağlar.

Hata İşleme

İstekleri İptal Etme

Eklenti, hem metinden-metne hem de TTS isteklerini devam ederken iptal etmenize olanak tanır. Bu, uzun süren bir isteği kesmek veya konuşma akışını dinamik olarak değiştirmek istediğinizde kullanışlı olabilir.

İsteği İptal Et

En İyi Uygulamalar

  1. Geri çağırma işlevinizde ErrorStatus'u kontrol ederek potansiyel hataları her zaman ele alın
  2. Her sağlayıcı için API hız sınırlarını ve maliyetlerini göz önünde bulundurun
  3. Uzun formlu veya etkileşimli konuşmalar için akış modunu kullanın
  4. Kaynakları verimli yönetmek için artık gerekli olmayan istekleri iptal etmeyi düşünün
  5. Algılanan gecikmeyi azaltmak için daha uzun metinler için akışlı TTS kullanın
  6. Ses işleme için Runtime Audio Importer eklentisi kullanışlı bir çözüm sunar, ancak proje ihtiyaçlarınıza göre özel işleme uygulayabilirsiniz
  7. Akıl yürütme modellerini (DeepSeek Reasoner, Grok) kullanırken, hem akıl yürütme hem de içerik çıktılarını uygun şekilde ele alın
  8. TTS özelliklerini uygulamadan önce, ses listeleme API'larını kullanarak mevcut sesleri keşfedin
  9. ElevenLabs parçalı akış için: Metin artımlı olarak oluşturulduğunda (AI yanıtları gibi) sürekli modu, önceden oluşturulmuş metin parçaları için anında modu kullanın
  10. Sürekli mod için, duyarlılık ile doğal konuşma akışı arasında denge kurmak için uygun temizleme zaman aşımlarını yapılandırın
  11. Uygulamanızın gerçek zamanlı gereksinimlerine göre optimal parça boyutlarını ve gönderme gecikmelerini seçin
  12. Ollama için: Model adlarını sabit kodlamak yerine, mevcut modelleri dinamik olarak keşfetmek için ListOllamaModels kullanın

Sorun Giderme

  • Her sağlayıcı için API kimlik bilgilerinizin doğru olduğunu doğrulayın
  • İnternet bağlantınızı kontrol edin
  • TTS özellikleriyle çalışırken kullandığınız ses işleme kütüphanelerinin (Runtime Audio Importer gibi) düzgün kurulduğundan emin olun
  • TTS yanıt verilerini işlerken doğru ses formatını kullandığınızı doğrulayın
  • Akışlı TTS için, ses parçalarını doğru şekilde işlediğinizden emin olun
  • Akıl yürütme modelleri için, hem akıl yürütme hem de içerik çıktılarını işlediğinizden emin olun
  • Model kullanılabilirliği ve yetenekleri için sağlayıcıya özgü belgeleri kontrol edin
  • ElevenLabs parçalı akış için: Oturumu düzgün şekilde kapatmak için işiniz bittiğinde FinishChunkedStreaming'i çağırdığınızdan emin olun
  • Sürekli mod sorunları için: Metninizde cümle sınırlarının doğru algılandığını kontrol edin
  • Gerçek zamanlı uygulamalar için: Gecikme gereksinimlerinize göre parça gönderme gecikmelerini ve temizleme zaman aşımlarını ayarlayın
  • Ollama için: İstek göndermeden önce Ollama sunucusunun çalıştığından ve yapılandırılan BaseUrl adresinden erişilebilir olduğundan emin olun