Çeviri Sağlayıcıları
AI Localization Automator, her biri benzersiz güçlü yönlere ve yapılandırma seçeneklerine sahip beş farklı AI sağlayıcısını destekler. Projenizin ihtiyaçlarına, bütçesine ve kalite gereksinimlerine en uygun sağlayıcıyı seçin.
Ollama (Yerel AI)
En iyi olduğu alan: Gizlilik hassasiyeti yüksek projeler, çevrimdışı çeviri, sınırsız kullanım
Ollama, AI modellerini makinenizde yerel olarak çalıştırır, API maliyeti veya internet gereksinimi olmaksızın tam gizlilik ve kontrol sağlar.
Popüler Modeller
- translategemma:12b (Gemma 3 tabanlı özel çeviri modeli)
- llama3.2 (Önerilen genel amaçlı model)
- mistral (Verimli alternatif)
- codellama (Kod farkındalıklı çeviriler)
- Ve daha birçok topluluk modeli

Yapılandırma Seçenekleri
- Temel URL: Yerel Ollama sunucusu (varsayılan:
http://localhost:11434) - Model: Yerel olarak yüklenmiş modelin adı (gerekli)
- Sohbet API'sini Kullan: Daha iyi konuşma işleme için etkinleştir
- Sıcaklık: 0.0-2.0 (tutarlı çeviri için 0.3 önerilir)
- Maksimum Token: 1-8,192 token
- Bağlam Boyutu: 512-32,768 token
- İstek Zaman Aşımı: 10-300 saniye (yerel modeller daha yavaş olabilir)
- Akışı Etkinleştir: Gerçek zamanlı yanıt işleme için
Güçlü Yönler
- ✅ Tam gizlilik (verileriniz makinenizden ayrılmaz)
- ✅ API maliyeti veya kullanım limiti yok
- ✅ Çevrimdışı çalışır
- ✅ Model parametreleri üzerinde tam kontrol
- ✅ Geniş topluluk modeli çeşitliliği
- ✅ Tedarikçi kilidi yok
Dikkat Edilmesi Gerekenler
- 💻 Yerel kurulum ve yeterli donanım gerektirir
- ⚡ Genellikle bulut sağlayıcılardan daha yavaştır
- 🔧 Daha teknik bir kurulum gerektirir
- 📊 Çeviri kalitesi modele göre önemli ölçüde değişir (bazıları bulut sağlayıcıları aşabilir)
- 💾 Modeller için büyük depolama gereksinimleri
Ollama'yı Kurma
- Ollama'yı Yükleyin: ollama.ai adresinden indirin ve sisteminize kurun
- Modelleri İndirin: Seçtiğiniz modeli indirmek için
ollama pull translategemma:12bkomutunu kullanın - Sunucuyu Başlatın: Ollama otomatik olarak çalışır veya
ollama serveile başlatın - Eklentiyi Yapılandırın: Eklenti ayarlarında temel URL ve model adını ayarlayın
- Bağlantıyı Test Edin: Eklenti, yapılandırmayı uyguladığınızda bağlantıyı doğrulayacaktır
OpenAI
En iyi olduğu alan: Genel olarak en yüksek çeviri kalitesi, kapsamlı model seçimi
OpenAI, en son GPT modellerini ve yeni Responses API formatını içeren, sektör lideri dil modellerini API'si aracılığıyla sağlar.
Mevcut Modeller
- gpt-5 (En son amiral gemisi model)
- gpt-5-mini (Daha küçük, daha hızlı varyant)
- gpt-4.1 ve gpt-4.1-mini
- gpt-4o ve gpt-4o-mini (Optimize edilmiş modeller)
- o3 ve o3-mini (Gelişmiş akıl yürütme)
- o1 ve o1-mini (Önceki nesil)

Yapılandırma Seçenekleri
- API Anahtarı: OpenAI API anahtarınız (gerekli)
- Temel URL: API uç noktası (varsayılan: OpenAI sunucuları)
- Model: Mevcut GPT modellerinden seçim yapın
- Sıcaklık: 0.0-2.0 (çeviri tutarlılığı için 0.3 önerilir)
- Maksimum Çıktı Token: 1-128,000 token
- İstek Zaman Aşımı: 5-300 saniye
- Ayrıntı Düzeyi: Yanıt detay seviyesini kontrol edin
Güçlü Yönler
- ✅ Tutarlı olarak yüksek kaliteli çeviriler
- ✅ Mükemmel bağlam anlama
- ✅ Güçlü format koruma
- ✅ Geniş dil desteği
- ✅ Güvenilir API çalışma süresi
Dikkat Edilmesi Gerekenler
- 💰 İstek başına daha yüksek maliyet
- 🌐 İnternet bağlantısı gerektirir
- ⏱️ Kademeye göre kullanım limitleri
Anthropic Claude
En iyi olduğu alan: Nüanslı çeviriler, yaratıcı içerik, güvenlik odaklı uygulamalar
Claude modelleri bağlamı ve nüansları anlamada üstündür, bu da onları anlatım ağırlıklı oyunlar ve karmaşık yerelleştirme senaryoları için ideal kılar.
Mevcut Modeller
- claude-opus-4-1-20250805 (En son amiral gemisi)
- claude-opus-4-20250514
- claude-sonnet-4-20250514
- claude-3-7-sonnet-20250219
- claude-3-5-haiku-20241022 (Hızlı ve verimli)
- claude-3-haiku-20240307

Yapılandırma Seçenekleri
- API Anahtarı: Anthropic API anahtarınız (gerekli)
- Temel URL: Claude API uç noktası
- Model: Claude model ailesinden seçim yapın
- Sıcaklık: 0.0-1.0 (0.3 önerilir)
- Maksimum Token: 1-64,000 token
- İstek Zaman Aşımı: 5-300 saniye
- Anthropic Sürümü: API sürüm başlığı
Güçlü Yönler
- ✅ Olağanüstü bağlam farkındalığı
- ✅ Yaratıcı/anlatımsal içerik için harika
- ✅ Güçlü güvenlik özellikleri
- ✅ Detaylı akıl yürütme yetenekleri
- ✅ Mükemmel talimat takibi
Dikkat Edilmesi Gerekenler
- 💰 Premium fiyatlandırma modeli
- 🌐 İnternet bağlantısı gerektirir
- 📏 Token limitleri modele göre değişir
DeepSeek
En iyi olduğu alan: Maliyet etkin çeviri, yüksek iş hacmi, bütçe odaklı projeler
DeepSeek, diğer sağlayıcıların maliyetinin çok altında rekabetçi çeviri kalitesi sunar, bu da onu büyük ölçekli yerelleştirme projeleri için ideal kılar.
Mevcut Modeller
- deepseek-chat (Genel amaçlı, önerilir)
- deepseek-reasoner (Gelişmiş akıl yürütme yetenekleri)

Yapılandırma Seçenekleri
- API Anahtarı: DeepSeek API anahtarınız (gerekli)
- Temel URL: DeepSeek API uç noktası
- Model: Sohbet ve akıl yürütücü modeller arasında seçim yapın
- Sıcaklık: 0.0-2.0 (0.3 önerilir)
- Maksimum Token: 1-8,192 token
- İstek Zaman Aşımı: 5-300 saniye
Güçlü Yönler
- ✅ Çok maliyet etkin
- ✅ İyi çeviri kalitesi
- ✅ Hızlı yanıt süreleri
- ✅ Basit yapılandırma
- ✅ Yüksek oran limitleri
Dikkat Edilmesi Gerekenler
- 📏 Daha düşük token limitleri
- 🆕 Daha yeni sağlayıcı (daha az geçmiş)
- 🌐 İnternet bağlantısı gerektirir
Google Gemini
En iyi olduğu alan: Çok dilli projeler, maliyet etkin çeviri, Google ekosistemi entegrasyonu
Gemini modelleri, gelişmiş akıl yürütme için düşünme modu gibi benzersiz özelliklerle birlikte rekabetçi fiyatlandırma ve güçlü çok dilli yetenekler sunar.
Mevcut Modeller
- gemini-2.5-pro (Düşünme özellikli en son amiral gemisi)
- gemini-2.5-flash (Düşünme desteği ile hızlı)
- gemini-2.5-flash-lite (Hafif varyant)
- gemini-2.0-flash ve gemini-2.0-flash-lite
- gemini-1.5-pro ve gemini-1.5-flash

Yapılandırma Seçenekleri
- API Anahtarı: Google AI API anahtarınız (gerekli)
- Temel URL: Gemini API uç noktası
- Model: Gemini model ailesinden seçim yapın
- Sıcaklık: 0.0-2.0 (0.3 önerilir)
- Maksimum Çıktı Token: 1-8,192 token
- İstek Zaman Aşımı: 5-300 saniye
- Düşünmeyi Etkinleştir: 2.5 modeller için gelişmiş akıl yürütmeyi etkinleştir
- Düşünme Bütçesi: Düşünme token tahsisini kontrol edin
Güçlü Yönler
- ✅ Güçlü çok dilli destek
- ✅ Rekabetçi fiyatlandırma
- ✅ Gelişmiş akıl yürütme (düşünme modu)
- ✅ Google ekosistemi entegrasyonu
- ✅ Düzenli model güncellemeleri
Dikkat Edilmesi Gerekenler
- 🧠 Düşünme modu token kullanımını artırır
- 📏 Modele göre değişken token limitleri
- 🌐 İnternet bağlantısı gerektirir
Doğru Sağlayıcıyı Seçmek
| Sağlayıcı | En İyi Olduğu Alan | Kalite | Maliyet | Kurulum | Gizlilik |
|---|---|---|---|---|---|
| Ollama | Gizlilik/çevrimdışı | Değişken* | Ücretsiz | Gelişmiş | Yerel |
| OpenAI | En yüksek kalite | ⭐⭐⭐⭐⭐ | 💰💰💰 | Kolay | Bulut |
| Claude | Yaratıcı içerik | ⭐⭐⭐⭐⭐ | 💰💰💰💰 | Kolay | Bulut |
| DeepSeek | Bütçe projeleri | ⭐⭐⭐⭐ | 💰 | Kolay | Bulut |
| Gemini | Çok dilli | ⭐⭐⭐⭐ | 💰 | Kolay | Bulut |
*Ollama için kalite, kullanılan yerel modele göre önemli ölçüde değişir - bazı modern yerel modeller bulut sağlayıcılarıyla eşleşebilir veya aşabilir.
Sağlayıcı Yapılandırma İpuçları
Tüm Bulut Sağlayıcıları İçin:
- API anahtarlarını güvenli bir şekilde saklayın ve sürüm kontrol sistemine eklemeyin
- Tutarlı çeviriler için muhafazakar sıcaklık ayarlarıyla (0.3) başlayın
- API kullanımınızı ve maliyetlerinizi izleyin
- Büyük çeviri çalıştırmalarından önce küçük gruplarla test edin
Ollama İçin:
- Yeterli RAM olduğundan emin olun (daha büyük modeller için 8GB+ önerilir)
- Daha iyi model yükleme performansı için SSD depolama kullanın
- Daha hızlı çıkarım için GPU hızlandırmayı düşünün
- Üretim çevirileri için güvenmeden önce yerel olarak test edin