Ana içeriğe geç

Çeviri Sağlayıcıları

AI Localization Automator, her biri benzersiz güçlü yönlere ve yapılandırma seçeneklerine sahip beş farklı AI sağlayıcısını destekler. Projenizin ihtiyaçlarına, bütçesine ve kalite gereksinimlerine en uygun sağlayıcıyı seçin.

Ollama (Yerel AI)

En iyi olduğu alan: Gizlilik hassasiyeti yüksek projeler, çevrimdışı çeviri, sınırsız kullanım

Ollama, AI modellerini makinenizde yerel olarak çalıştırır, API maliyeti veya internet gereksinimi olmaksızın tam gizlilik ve kontrol sağlar.

  • translategemma:12b (Gemma 3 tabanlı özel çeviri modeli)
  • llama3.2 (Önerilen genel amaçlı model)
  • mistral (Verimli alternatif)
  • codellama (Kod farkındalıklı çeviriler)
  • Ve daha birçok topluluk modeli

Yapılandırma Seçenekleri

  • Temel URL: Yerel Ollama sunucusu (varsayılan: http://localhost:11434)
  • Model: Yerel olarak yüklenmiş modelin adı (gerekli)
  • Sohbet API'sini Kullan: Daha iyi konuşma işleme için etkinleştir
  • Sıcaklık: 0.0-2.0 (tutarlı çeviri için 0.3 önerilir)
  • Maksimum Token: 1-8,192 token
  • Bağlam Boyutu: 512-32,768 token
  • İstek Zaman Aşımı: 10-300 saniye (yerel modeller daha yavaş olabilir)
  • Akışı Etkinleştir: Gerçek zamanlı yanıt işleme için

Güçlü Yönler

  • ✅ Tam gizlilik (verileriniz makinenizden ayrılmaz)
  • ✅ API maliyeti veya kullanım limiti yok
  • ✅ Çevrimdışı çalışır
  • ✅ Model parametreleri üzerinde tam kontrol
  • ✅ Geniş topluluk modeli çeşitliliği
  • ✅ Tedarikçi kilidi yok

Dikkat Edilmesi Gerekenler

  • 💻 Yerel kurulum ve yeterli donanım gerektirir
  • ⚡ Genellikle bulut sağlayıcılardan daha yavaştır
  • 🔧 Daha teknik bir kurulum gerektirir
  • 📊 Çeviri kalitesi modele göre önemli ölçüde değişir (bazıları bulut sağlayıcıları aşabilir)
  • 💾 Modeller için büyük depolama gereksinimleri

Ollama'yı Kurma

  1. Ollama'yı Yükleyin: ollama.ai adresinden indirin ve sisteminize kurun
  2. Modelleri İndirin: Seçtiğiniz modeli indirmek için ollama pull translategemma:12b komutunu kullanın
  3. Sunucuyu Başlatın: Ollama otomatik olarak çalışır veya ollama serve ile başlatın
  4. Eklentiyi Yapılandırın: Eklenti ayarlarında temel URL ve model adını ayarlayın
  5. Bağlantıyı Test Edin: Eklenti, yapılandırmayı uyguladığınızda bağlantıyı doğrulayacaktır

OpenAI

En iyi olduğu alan: Genel olarak en yüksek çeviri kalitesi, kapsamlı model seçimi

OpenAI, en son GPT modellerini ve yeni Responses API formatını içeren, sektör lideri dil modellerini API'si aracılığıyla sağlar.

Mevcut Modeller

  • gpt-5 (En son amiral gemisi model)
  • gpt-5-mini (Daha küçük, daha hızlı varyant)
  • gpt-4.1 ve gpt-4.1-mini
  • gpt-4o ve gpt-4o-mini (Optimize edilmiş modeller)
  • o3 ve o3-mini (Gelişmiş akıl yürütme)
  • o1 ve o1-mini (Önceki nesil)

Yapılandırma Seçenekleri

  • API Anahtarı: OpenAI API anahtarınız (gerekli)
  • Temel URL: API uç noktası (varsayılan: OpenAI sunucuları)
  • Model: Mevcut GPT modellerinden seçim yapın
  • Sıcaklık: 0.0-2.0 (çeviri tutarlılığı için 0.3 önerilir)
  • Maksimum Çıktı Token: 1-128,000 token
  • İstek Zaman Aşımı: 5-300 saniye
  • Ayrıntı Düzeyi: Yanıt detay seviyesini kontrol edin

Güçlü Yönler

  • ✅ Tutarlı olarak yüksek kaliteli çeviriler
  • ✅ Mükemmel bağlam anlama
  • ✅ Güçlü format koruma
  • ✅ Geniş dil desteği
  • ✅ Güvenilir API çalışma süresi

Dikkat Edilmesi Gerekenler

  • 💰 İstek başına daha yüksek maliyet
  • 🌐 İnternet bağlantısı gerektirir
  • ⏱️ Kademeye göre kullanım limitleri

Anthropic Claude

En iyi olduğu alan: Nüanslı çeviriler, yaratıcı içerik, güvenlik odaklı uygulamalar

Claude modelleri bağlamı ve nüansları anlamada üstündür, bu da onları anlatım ağırlıklı oyunlar ve karmaşık yerelleştirme senaryoları için ideal kılar.

Mevcut Modeller

  • claude-opus-4-1-20250805 (En son amiral gemisi)
  • claude-opus-4-20250514
  • claude-sonnet-4-20250514
  • claude-3-7-sonnet-20250219
  • claude-3-5-haiku-20241022 (Hızlı ve verimli)
  • claude-3-haiku-20240307

Yapılandırma Seçenekleri

  • API Anahtarı: Anthropic API anahtarınız (gerekli)
  • Temel URL: Claude API uç noktası
  • Model: Claude model ailesinden seçim yapın
  • Sıcaklık: 0.0-1.0 (0.3 önerilir)
  • Maksimum Token: 1-64,000 token
  • İstek Zaman Aşımı: 5-300 saniye
  • Anthropic Sürümü: API sürüm başlığı

Güçlü Yönler

  • ✅ Olağanüstü bağlam farkındalığı
  • ✅ Yaratıcı/anlatımsal içerik için harika
  • ✅ Güçlü güvenlik özellikleri
  • ✅ Detaylı akıl yürütme yetenekleri
  • ✅ Mükemmel talimat takibi

Dikkat Edilmesi Gerekenler

  • 💰 Premium fiyatlandırma modeli
  • 🌐 İnternet bağlantısı gerektirir
  • 📏 Token limitleri modele göre değişir

DeepSeek

En iyi olduğu alan: Maliyet etkin çeviri, yüksek iş hacmi, bütçe odaklı projeler

DeepSeek, diğer sağlayıcıların maliyetinin çok altında rekabetçi çeviri kalitesi sunar, bu da onu büyük ölçekli yerelleştirme projeleri için ideal kılar.

Mevcut Modeller

  • deepseek-chat (Genel amaçlı, önerilir)
  • deepseek-reasoner (Gelişmiş akıl yürütme yetenekleri)

Yapılandırma Seçenekleri

  • API Anahtarı: DeepSeek API anahtarınız (gerekli)
  • Temel URL: DeepSeek API uç noktası
  • Model: Sohbet ve akıl yürütücü modeller arasında seçim yapın
  • Sıcaklık: 0.0-2.0 (0.3 önerilir)
  • Maksimum Token: 1-8,192 token
  • İstek Zaman Aşımı: 5-300 saniye

Güçlü Yönler

  • ✅ Çok maliyet etkin
  • ✅ İyi çeviri kalitesi
  • ✅ Hızlı yanıt süreleri
  • ✅ Basit yapılandırma
  • ✅ Yüksek oran limitleri

Dikkat Edilmesi Gerekenler

  • 📏 Daha düşük token limitleri
  • 🆕 Daha yeni sağlayıcı (daha az geçmiş)
  • 🌐 İnternet bağlantısı gerektirir

Google Gemini

En iyi olduğu alan: Çok dilli projeler, maliyet etkin çeviri, Google ekosistemi entegrasyonu

Gemini modelleri, gelişmiş akıl yürütme için düşünme modu gibi benzersiz özelliklerle birlikte rekabetçi fiyatlandırma ve güçlü çok dilli yetenekler sunar.

Mevcut Modeller

  • gemini-2.5-pro (Düşünme özellikli en son amiral gemisi)
  • gemini-2.5-flash (Düşünme desteği ile hızlı)
  • gemini-2.5-flash-lite (Hafif varyant)
  • gemini-2.0-flash ve gemini-2.0-flash-lite
  • gemini-1.5-pro ve gemini-1.5-flash

Yapılandırma Seçenekleri

  • API Anahtarı: Google AI API anahtarınız (gerekli)
  • Temel URL: Gemini API uç noktası
  • Model: Gemini model ailesinden seçim yapın
  • Sıcaklık: 0.0-2.0 (0.3 önerilir)
  • Maksimum Çıktı Token: 1-8,192 token
  • İstek Zaman Aşımı: 5-300 saniye
  • Düşünmeyi Etkinleştir: 2.5 modeller için gelişmiş akıl yürütmeyi etkinleştir
  • Düşünme Bütçesi: Düşünme token tahsisini kontrol edin

Güçlü Yönler

  • ✅ Güçlü çok dilli destek
  • ✅ Rekabetçi fiyatlandırma
  • ✅ Gelişmiş akıl yürütme (düşünme modu)
  • ✅ Google ekosistemi entegrasyonu
  • ✅ Düzenli model güncellemeleri

Dikkat Edilmesi Gerekenler

  • 🧠 Düşünme modu token kullanımını artırır
  • 📏 Modele göre değişken token limitleri
  • 🌐 İnternet bağlantısı gerektirir

Doğru Sağlayıcıyı Seçmek

SağlayıcıEn İyi Olduğu AlanKaliteMaliyetKurulumGizlilik
OllamaGizlilik/çevrimdışıDeğişken*ÜcretsizGelişmişYerel
OpenAIEn yüksek kalite⭐⭐⭐⭐⭐💰💰💰KolayBulut
ClaudeYaratıcı içerik⭐⭐⭐⭐⭐💰💰💰💰KolayBulut
DeepSeekBütçe projeleri⭐⭐⭐⭐💰KolayBulut
GeminiÇok dilli⭐⭐⭐⭐💰KolayBulut

*Ollama için kalite, kullanılan yerel modele göre önemli ölçüde değişir - bazı modern yerel modeller bulut sağlayıcılarıyla eşleşebilir veya aşabilir.

Sağlayıcı Yapılandırma İpuçları

Tüm Bulut Sağlayıcıları İçin:

  • API anahtarlarını güvenli bir şekilde saklayın ve sürüm kontrol sistemine eklemeyin
  • Tutarlı çeviriler için muhafazakar sıcaklık ayarlarıyla (0.3) başlayın
  • API kullanımınızı ve maliyetlerinizi izleyin
  • Büyük çeviri çalıştırmalarından önce küçük gruplarla test edin

Ollama İçin:

  • Yeterli RAM olduğundan emin olun (daha büyük modeller için 8GB+ önerilir)
  • Daha iyi model yükleme performansı için SSD depolama kullanın
  • Daha hızlı çıkarım için GPU hızlandırmayı düşünün
  • Üretim çevirileri için güvenmeden önce yerel olarak test edin