Passa al contenuto principale

Fornitori di Traduzione

L'AI Localization Automator supporta cinque diversi fornitori di IA, ciascuno con punti di forza e opzioni di configurazione unici. Scegli il fornitore che meglio si adatta alle esigenze, al budget e ai requisiti di qualità del tuo progetto.

Ollama (Local AI)

Ideale per: Progetti sensibili alla privacy, traduzione offline, utilizzo illimitato

Ollama esegue modelli di IA localmente sulla tua macchina, garantendo completa privacy e controllo senza costi API o requisiti di connessione internet.

  • translategemma:12b (Modello specializzato in traduzione basato su Gemma 3)
  • llama3.2 (Consigliato per uso generale)
  • mistral (Alternativa efficiente)
  • codellama (Traduzioni consapevoli del codice)
  • E molti altri modelli della community

Opzioni di Configurazione

  • URL Base: Server Ollama locale (predefinito: http://localhost:11434)
  • Modello: Nome del modello installato localmente (obbligatorio)
  • Usa Chat API: Abilita per una migliore gestione delle conversazioni
  • Temperatura: 0.0-2.0 (0.3 consigliato)
  • Token Massimi: 1-8.192 token
  • Dimensione Contesto: 512-32.768 token
  • Timeout Richiesta: 10-300 secondi (i modelli locali possono essere più lenti)
  • Abilita Streaming: Per l'elaborazione delle risposte in tempo reale

Punti di Forza

  • ✅ Privacy completa (nessun dato lascia la tua macchina)
  • ✅ Nessun costo API o limite di utilizzo
  • ✅ Funziona offline
  • ✅ Controllo completo sui parametri del modello
  • ✅ Ampia varietà di modelli della community
  • ✅ Nessun vincolo al fornitore

Considerazioni

  • 💻 Richiede configurazione locale e hardware adeguato
  • ⚡ Generalmente più lento dei fornitori cloud
  • 🔧 Configurazione più tecnica richiesta
  • 📊 La qualità della traduzione varia significativamente in base al modello (alcuni possono superare i fornitori cloud)
  • 💾 Grandi requisiti di archiviazione per i modelli

Configurazione di Ollama

  1. Installa Ollama: Scarica da ollama.ai e installa sul tuo sistema
  2. Scarica Modelli: Usa ollama pull translategemma:12b per scaricare il modello scelto
  3. Avvia Server: Ollama viene eseguito automaticamente, oppure avvia con ollama serve
  4. Configura Plugin: Imposta l'URL base e il nome del modello nelle impostazioni del plugin
  5. Test Connessione: Il plugin verificherà la connettività quando applichi la configurazione

OpenAI

Ideale per: Qualità complessiva di traduzione più alta, ampia selezione di modelli

OpenAI fornisce modelli linguistici all'avanguardia attraverso la loro API, inclusi gli ultimi modelli GPT e il nuovo formato Responses API.

Modelli Disponibili

  • gpt-5 (Ultimo modello di punta)
  • gpt-5-mini (Variante più piccola e veloce)
  • gpt-4.1 e gpt-4.1-mini
  • gpt-4o e gpt-4o-mini (Modelli ottimizzati)
  • o3 e o3-mini (Ragionamento avanzato)
  • o1 e o1-mini (Generazione precedente)

Opzioni di Configurazione

  • Chiave API: La tua chiave API OpenAI (obbligatoria)
  • URL Base: Endpoint API (predefinito: server di OpenAI)
  • Modello: Scegli tra i modelli GPT disponibili
  • Temperatura: 0.0-2.0 (0.3 consigliato per coerenza nelle traduzioni)
  • Token Output Massimi: 1-128.000 token
  • Timeout Richiesta: 5-300 secondi
  • Verbosity: Controlla il livello di dettaglio della risposta

Punti di Forza

  • ✅ Traduzioni di qualità costantemente alta
  • ✅ Eccellente comprensione del contesto
  • ✅ Forte preservazione del formato
  • ✅ Ampio supporto linguistico
  • ✅ Affidabilità dell'API

Considerazioni

  • 💰 Costo più alto per richiesta
  • 🌐 Richiede connessione internet
  • ⏱️ Limiti di utilizzo basati sul piano

Anthropic Claude

Ideale per: Traduzioni sfumate, contenuti creativi, applicazioni focalizzate sulla sicurezza

I modelli Claude eccellono nella comprensione del contesto e delle sfumature, rendendoli ideali per giochi ricchi di narrativa e scenari di localizzazione complessi.

Modelli Disponibili

  • claude-opus-4-1-20250805 (Ultimo modello di punta)
  • claude-opus-4-20250514
  • claude-sonnet-4-20250514
  • claude-3-7-sonnet-20250219
  • claude-3-5-haiku-20241022 (Veloce ed efficiente)
  • claude-3-haiku-20240307

Opzioni di Configurazione

  • Chiave API: La tua chiave API Anthropic (obbligatoria)
  • URL Base: Endpoint API Claude
  • Modello: Seleziona dalla famiglia di modelli Claude
  • Temperatura: 0.0-1.0 (0.3 consigliato)
  • Token Massimi: 1-64.000 token
  • Timeout Richiesta: 5-300 secondi
  • Versione Anthropic: Intestazione della versione API

Punti di Forza

  • ✅ Consapevolezza eccezionale del contesto
  • ✅ Ottimo per contenuti creativi/narrativi
  • ✅ Forti funzionalità di sicurezza
  • ✅ Capacità di ragionamento dettagliate
  • ✅ Eccellente aderenza alle istruzioni

Considerazioni

  • 💰 Modello di prezzi premium
  • 🌐 Richiede connessione internet
  • 📏 Limiti di token variabili per modello

DeepSeek

Ideale per: Traduzione conveniente, alto throughput, progetti attenti al budget

DeepSeek offre una qualità di traduzione competitiva a una frazione del costo degli altri fornitori, rendendolo ideale per progetti di localizzazione su larga scala.

Modelli Disponibili

  • deepseek-chat (Uso generale, consigliato)
  • deepseek-reasoner (Capacità di ragionamento potenziate)

Opzioni di Configurazione

  • Chiave API: La tua chiave API DeepSeek (obbligatoria)
  • URL Base: Endpoint API DeepSeek
  • Modello: Scegli tra i modelli chat e reasoner
  • Temperatura: 0.0-2.0 (0.3 consigliato)
  • Token Massimi: 1-8.192 token
  • Timeout Richiesta: 5-300 secondi

Punti di Forza

  • ✅ Molto conveniente
  • ✅ Buona qualità di traduzione
  • ✅ Tempi di risposta veloci
  • ✅ Configurazione semplice
  • ✅ Limiti di frequenza elevati

Considerazioni

  • 📏 Limiti di token più bassi
  • 🆕 Fornitore più recente (meno esperienza consolidata)
  • 🌐 Richiede connessione internet

Google Gemini

Ideale per: Progetti multilingue, traduzione conveniente, integrazione con l'ecosistema Google

I modelli Gemini offrono forti capacità multilingue con prezzi competitivi e funzionalità uniche come la modalità thinking per un ragionamento potenziato.

Modelli Disponibili

  • gemini-2.5-pro (Ultimo modello di punta con thinking)
  • gemini-2.5-flash (Veloce, con supporto thinking)
  • gemini-2.5-flash-lite (Variante leggera)
  • gemini-2.0-flash e gemini-2.0-flash-lite
  • gemini-1.5-pro e gemini-1.5-flash

Opzioni di Configurazione

  • Chiave API: La tua chiave API Google AI (obbligatoria)
  • URL Base: Endpoint API Gemini
  • Modello: Seleziona dalla famiglia di modelli Gemini
  • Temperatura: 0.0-2.0 (0.3 consigliato)
  • Token Output Massimi: 1-8.192 token
  • Timeout Richiesta: 5-300 secondi
  • Abilita Thinking: Attiva il ragionamento potenziato per i modelli 2.5
  • Budget Thinking: Controlla l'allocazione dei token per il thinking

Punti di Forza

  • ✅ Forte supporto multilingue
  • ✅ Prezzi competitivi
  • ✅ Ragionamento avanzato (modalità thinking)
  • ✅ Integrazione con l'ecosistema Google
  • ✅ Aggiornamenti regolari dei modelli

Considerazioni

  • 🧠 La modalità thinking aumenta l'uso dei token
  • 📏 Limiti di token variabili per modello
  • 🌐 Richiede connessione internet

Scegliere il Fornitore Giusto

FornitoreIdeale PerQualitàCostoConfigurazionePrivacy
OllamaPrivacy/offlineVariabile*GratuitoAvanzataLocale
OpenAIQualità più alta⭐⭐⭐⭐⭐💰💰💰SempliceCloud
ClaudeContenuti creativi⭐⭐⭐⭐⭐💰💰💰💰SempliceCloud
DeepSeekProgetti con budget⭐⭐⭐⭐💰SempliceCloud
GeminiMultilingue⭐⭐⭐⭐💰SempliceCloud

*La qualità per Ollama varia significativamente in base al modello locale utilizzato - alcuni modelli locali moderni possono eguagliare o superare i fornitori cloud.

Suggerimenti per la Configurazione del Fornitore

Per Tutti i Fornitori Cloud:

  • Conserva le chiavi API in modo sicuro e non inserirle nel controllo versione
  • Inizia con impostazioni di temperatura conservative (0.3) per traduzioni coerenti
  • Monitora l'utilizzo e i costi della tua API
  • Testa con piccoli lotti prima di eseguire grandi sessioni di traduzione

Per Ollama:

  • Assicurati di avere RAM adeguata (8GB+ consigliati per modelli più grandi)
  • Usa archiviazione SSD per prestazioni migliori nel caricamento dei modelli
  • Considera l'accelerazione GPU per inferenza più veloce
  • Testa localmente prima di affidarti ad esso per traduzioni di produzione