Fournisseurs de Traduction
L'AI Localization Automator prend en charge cinq fournisseurs d'IA différents, chacun avec des forces et des options de configuration uniques. Choisissez le fournisseur qui correspond le mieux aux besoins, au budget et aux exigences de qualité de votre projet.
Ollama (IA Locale)
Idéal pour : Projets sensibles à la confidentialité, traduction hors ligne, utilisation illimitée
Ollama exécute des modèles d'IA localement sur votre machine, offrant une confidentialité et un contrôle complets sans coûts d'API ni exigences d'internet.
Modèles Populaires
- translategemma:12b (Modèle de traduction spécialisé basé sur Gemma 3)
- llama3.2 (Usage général recommandé)
- mistral (Alternative efficace)
- codellama (Traductions conscientes du code)
- Et bien d'autres modèles communautaires

Options de Configuration
- URL de base : Serveur Ollama local (par défaut :
http://localhost:11434) - Modèle : Nom du modèle installé localement (requis)
- Utiliser l'API Chat : Activer pour une meilleure gestion des conversations
- Température : 0.0-2.0 (0.3 recommandé)
- Tokens Maximum : 1-8 192 tokens
- Taille du Contexte : 512-32 768 tokens
- Délai d'Attente de la Requête : 10-300 secondes (les modèles locaux peuvent être plus lents)
- Activer le Streaming : Pour le traitement des réponses en temps réel
Forces
- ✅ Confidentialité totale (aucune donnée ne quitte votre machine)
- ✅ Pas de coûts d'API ni de limites d'utilisation
- ✅ Fonctionne hors ligne
- ✅ Contrôle total des paramètres du modèle
- ✅ Grande variété de modèles communautaires
- ✅ Pas de verrouillage fournisseur
Considérations
- 💻 Nécessite une configuration locale et un matériel capable
- ⚡ Généralement plus lent que les fournisseurs cloud
- 🔧 Configuration plus technique requise
- 📊 La qualité de traduction varie considérablement selon le modèle (certains peuvent dépasser les fournisseurs cloud)
- 💾 Besoins de stockage importants pour les modèles
Configuration d'Ollama
- Installer Ollama : Téléchargez depuis ollama.ai et installez sur votre système
- Télécharger les Modèles : Utilisez
ollama pull translategemma:12bpour télécharger le modèle de votre choix - Démarrer le Serveur : Ollama s'exécute automatiquement, ou démarrez avec
ollama serve - Configurer le Plugin : Définissez l'URL de base et le nom du modèle dans les paramètres du plugin
- Tester la Connexion : Le plugin vérifiera la connectivité lorsque vous appliquerez la configuration
OpenAI
Idéal pour : La qualité de traduction globale la plus élevée, vaste sélection de modèles
OpenAI fournit des modèles de langage de pointe via leur API, y compris les derniers modèles GPT et le nouveau format d'API Responses.
Modèles Disponibles
- gpt-5 (Dernier modèle phare)
- gpt-5-mini (Variante plus petite et plus rapide)
- gpt-4.1 et gpt-4.1-mini
- gpt-4o et gpt-4o-mini (Modèles optimisés)
- o3 et o3-mini (Raisonnement avancé)
- o1 et o1-mini (Génération précédente)

Options de Configuration
- Clé API : Votre clé API OpenAI (requise)
- URL de base : Point de terminaison de l'API (par défaut : serveurs d'OpenAI)
- Modèle : Choisissez parmi les modèles GPT disponibles
- Température : 0.0-2.0 (0.3 recommandé pour la cohérence de la traduction)
- Tokens de Sortie Maximum : 1-128 000 tokens
- Délai d'Attente de la Requête : 5-300 secondes
- Verbosité : Contrôler le niveau de détail des réponses
Forces
- ✅ Traductions de qualité constamment élevée
- ✅ Excellente compréhension du contexte
- ✅ Préservation solide du format
- ✅ Prise en charge étendue des langues
- ✅ Disponibilité de l'API fiable
Considérations
- 💰 Coût plus élevé par requête
- 🌐 Nécessite une connexion internet
- ⏱️ Limites d'utilisation basées sur le niveau
Anthropic Claude
Idéal pour : Traductions nuancées, contenu créatif, applications axées sur la sécurité
Les modèles Claude excellent dans la compréhension du contexte et des nuances, ce qui les rend idéaux pour les jeux riches en narration et les scénarios de localisation complexes.
Modèles Disponibles
- claude-opus-4-1-20250805 (Dernier modèle phare)
- claude-opus-4-20250514
- claude-sonnet-4-20250514
- claude-3-7-sonnet-20250219
- claude-3-5-haiku-20241022 (Rapide et efficace)
- claude-3-haiku-20240307

Options de Configuration
- Clé API : Votre clé API Anthropic (requise)
- URL de base : Point de terminaison de l'API Claude
- Modèle : Sélectionnez dans la famille de modèles Claude
- Température : 0.0-1.0 (0.3 recommandé)
- Tokens Maximum : 1-64 000 tokens
- Délai d'Attente de la Requête : 5-300 secondes
- Version Anthropic : En-tête de version de l'API
Forces
- ✅ Conscience contextuelle exceptionnelle
- ✅ Excellent pour le contenu créatif/narratif
- ✅ Fonctionnalités de sécurité solides
- ✅ Capacités de raisonnement détaillées
- ✅ Excellente capacité à suivre les instructions
Considérations
- 💰 Modèle de tarification premium
- 🌐 Connexion internet requise
- 📏 Les limites de tokens varient selon le modèle
DeepSeek
Idéal pour : Traduction économique, débit élevé, projets soucieux du budget
DeepSeek offre une qualité de traduction compétitive à une fraction du coût des autres fournisseurs, ce qui le rend idéal pour les projets de localisation à grande échelle.
Modèles Disponibles
- deepseek-chat (Usage général, recommandé)
- deepseek-reasoner (Capacités de raisonnement améliorées)

Options de Configuration
- Clé API : Votre clé API DeepSeek (requise)
- URL de base : Point de terminaison de l'API DeepSeek
- Modèle : Choisissez entre les modèles chat et reasoner
- Température : 0.0-2.0 (0.3 recommandé)
- Tokens Maximum : 1-8 192 tokens
- Délai d'Attente de la Requête : 5-300 secondes
Forces
- ✅ Très économique
- ✅ Bonne qualité de traduction
- ✅ Temps de réponse rapides
- ✅ Configuration simple
- ✅ Limites de débit élevées
Considérations
- 📏 Limites de tokens plus basses
- 🆕 Fournisseur plus récent (moins d'historique)
- 🌐 Nécessite une connexion internet
Google Gemini
Idéal pour : Projets multilingues, traduction économique, intégration à l'écosystème Google
Les modèles Gemini offrent de solides capacités multilingues avec une tarification compétitive et des fonctionnalités uniques comme le mode de réflexion pour un raisonnement amélioré.
Modèles Disponibles
- gemini-2.5-pro (Dernier modèle phare avec réflexion)
- gemini-2.5-flash (Rapide, avec prise en charge de la réflexion)
- gemini-2.5-flash-lite (Variante légère)
- gemini-2.0-flash et gemini-2.0-flash-lite
- gemini-1.5-pro et gemini-1.5-flash

Options de Configuration
- Clé API : Votre clé API Google AI (requise)
- URL de base : Point de terminaison de l'API Gemini
- Modèle : Sélectionnez dans la famille de modèles Gemini
- Température : 0.0-2.0 (0.3 recommandé)
- Tokens de Sortie Maximum : 1-8 192 tokens
- Délai d'Attente de la Requête : 5-300 secondes
- Activer la Réflexion : Active le raisonnement amélioré pour les modèles 2.5
- Budget de Réflexion : Contrôler l'allocation des tokens de réflexion
Forces
- ✅ Prise en charge multilingue solide
- ✅ Tarification compétitive
- ✅ Raisonnement avancé (mode réflexion)
- ✅ Intégration à l'écosystème Google
- ✅ Mises à jour régulières des modèles
Considérations
- 🧠 Le mode réflexion augmente l'utilisation des tokens
- 📏 Limites de tokens variables selon le modèle
- 🌐 Connexion internet requise
Choisir le Bon Fournisseur
| Fournisseur | Idéal Pour | Qualité | Coût | Configuration | Confidentialité |
|---|---|---|---|---|---|
| Ollama | Confidentialité/hors ligne | Variable* | Gratuit | Avancée | Local |
| OpenAI | Qualité la plus élevée | ⭐⭐⭐⭐⭐ | 💰💰💰 | Facile | Cloud |
| Claude | Contenu créatif | ⭐⭐⭐⭐⭐ | 💰💰💰💰 | Facile | Cloud |
| DeepSeek | Projets à budget limité | ⭐⭐⭐⭐ | 💰 | Facile | Cloud |
| Gemini | Multilingue | ⭐⭐⭐⭐ | 💰 | Facile | Cloud |
*La qualité pour Ollama varie considérablement selon le modèle local utilisé - certains modèles locaux modernes peuvent égaler ou dépasser les fournisseurs cloud.
Conseils de Configuration des Fournisseurs
Pour Tous les Fournisseurs Cloud :
- Stockez les clés API de manière sécurisée et ne les committez pas dans le contrôle de version
- Commencez avec des paramètres de température conservateurs (0.3) pour des traductions cohérentes
- Surveillez votre utilisation de l'API et vos coûts
- Testez avec de petits lots avant les grandes sessions de traduction
Pour Ollama :
- Assurez-vous d'avoir suffisamment de RAM (8 Go+ recommandé pour les modèles plus grands)
- Utilisez un stockage SSD pour de meilleures performances de chargement des modèles
- Envisagez l'accélération GPU pour une inférence plus rapide
- Testez localement avant de vous y fier pour des traductions en production