Provedores de Tradução
O AI Localization Automator suporta cinco diferentes provedores de IA, cada um com pontos fortes e opções de configuração únicos. Escolha o provedor que melhor se adequa às necessidades, orçamento e requisitos de qualidade do seu projeto.
Ollama (IA Local)
Melhor para: Projetos sensíveis à privacidade, tradução offline, uso ilimitado
O Ollama executa modelos de IA localmente na sua máquina, fornecendo privacidade e controle completos sem custos de API ou requisitos de internet.
Modelos Populares
- translategemma:12b (Modelo de tradução especializado baseado no Gemma 3)
- llama3.2 (Propósito geral recomendado)
- mistral (Alternativa eficiente)
- codellama (Traduções com consciência de código)
- E muitos outros modelos da comunidade

Opções de Configuração
- URL Base: Servidor Ollama local (padrão:
http://localhost:11434) - Modelo: Nome do modelo instalado localmente (obrigatório)
- Usar API de Chat: Habilitar para melhor manipulação de conversas
- Temperatura: 0.0-2.0 (0.3 recomendado)
- Tokens Máximos: 1-8.192 tokens
- Tamanho do Contexto: 512-32.768 tokens
- Tempo Limite da Requisição: 10-300 segundos (modelos locais podem ser mais lentos)
- Habilitar Streaming: Para processamento de resposta em tempo real
Pontos Fortes
- ✅ Privacidade completa (nenhum dado sai da sua máquina)
- ✅ Sem custos de API ou limites de uso
- ✅ Funciona offline
- ✅ Controle total sobre os parâmetros do modelo
- ✅ Grande variedade de modelos da comunidade
- ✅ Sem dependência de fornecedor
Considerações
- 💻 Requer configuração local e hardware capaz
- ⚡ Geralmente mais lento que provedores em nuvem
- 🔧 Configuração mais técnica necessária
- 📊 A qualidade da tradução varia significativamente conforme o modelo (alguns podem superar provedores em nuvem)
- 💾 Grandes requisitos de armazenamento para modelos
Configurando o Ollama
- Instale o Ollama: Baixe em ollama.ai e instale no seu sistema
- Baixe Modelos: Use
ollama pull translategemma:12bpara baixar o modelo escolhido - Inicie o Servidor: O Ollama é executado automaticamente, ou inicie com
ollama serve - Configure o Plugin: Defina a URL base e o nome do modelo nas configurações do plugin
- Teste a Conexão: O plugin verificará a conectividade quando você aplicar a configuração
OpenAI
Melhor para: Maior qualidade geral de tradução, extensa seleção de modelos
A OpenAI fornece modelos de linguagem líderes do setor por meio de sua API, incluindo os últimos modelos GPT e o novo formato Responses API.
Modelos Disponíveis
- gpt-5 (Último modelo principal)
- gpt-5-mini (Variante menor e mais rápida)
- gpt-4.1 e gpt-4.1-mini
- gpt-4o e gpt-4o-mini (Modelos otimizados)
- o3 e o3-mini (Raciocínio avançado)
- o1 e o1-mini (Geração anterior)

Opções de Configuração
- Chave da API: Sua chave de API da OpenAI (obrigatória)
- URL Base: Endpoint da API (padrão: servidores da OpenAI)
- Modelo: Escolha entre os modelos GPT disponíveis
- Temperatura: 0.0-2.0 (0.3 recomendado para consistência na tradução)
- Tokens de Saída Máximos: 1-128.000 tokens
- Tempo Limite da Requisição: 5-300 segundos
- Verbosity: Controla o nível de detalhe da resposta
Pontos Fortes
- ✅ Traduções consistentemente de alta qualidade
- ✅ Excelente compreensão de contexto
- ✅ Forte preservação de formato
- ✅ Amplo suporte a idiomas
- ✅ Confiabilidade de tempo de atividade da API
Considerações
- 💰 Custo mais alto por requisição
- 🌐 Requer conexão com a internet
- ⏱️ Limites de uso baseados no nível
Anthropic Claude
Melhor para: Traduções com nuances, conteúdo criativo, aplicações focadas em segurança
Os modelos Claude se destacam em entender contexto e nuance, tornando-os ideais para jogos com muita narrativa e cenários de localização complexos.
Modelos Disponíveis
- claude-opus-4-1-20250805 (Último modelo principal)
- claude-opus-4-20250514
- claude-sonnet-4-20250514
- claude-3-7-sonnet-20250219
- claude-3-5-haiku-20241022 (Rápido e eficiente)
- claude-3-haiku-20240307

Opções de Configuração
- Chave da API: Sua chave de API da Anthropic (obrigatória)
- URL Base: Endpoint da API Claude
- Modelo: Selecione da família de modelos Claude
- Temperatura: 0.0-1.0 (0.3 recomendado)
- Tokens Máximos: 1-64.000 tokens
- Tempo Limite da Requisição: 5-300 segundos
- Versão Anthropic: Cabeçalho da versão da API
Pontos Fortes
- ✅ Consciência contextual excepcional
- ✅ Ótimo para conteúdo criativo/narrativo
- ✅ Recursos de segurança robustos
- ✅ Capacidades de raciocínio detalhadas
- ✅ Excelente seguimento de instruções
Considerações
- 💰 Modelo de preços premium
- 🌐 Conexão com a internet necessária
- 📏 Limites de tokens variam por modelo
DeepSeek
Melhor para: Tradução econômica, alta taxa de transferência, projetos com orçamento limitado
O DeepSeek oferece qualidade de tradução competitiva a uma fração do custo de outros provedores, tornando-o ideal para projetos de localização em grande escala.
Modelos Disponíveis
- deepseek-chat (Propósito geral, recomendado)
- deepseek-reasoner (Capacidades de raciocínio aprimoradas)

Opções de Configuração
- Chave da API: Sua chave de API do DeepSeek (obrigatória)
- URL Base: Endpoint da API DeepSeek
- Modelo: Escolha entre os modelos chat e reasoner
- Temperatura: 0.0-2.0 (0.3 recomendado)
- Tokens Máximos: 1-8.192 tokens
- Tempo Limite da Requisição: 5-300 segundos
Pontos Fortes
- ✅ Muito econômico
- ✅ Boa qualidade de tradução
- ✅ Tempos de resposta rápidos
- ✅ Configuração simples
- ✅ Limites de taxa altos
Considerações
- 📏 Limites de tokens mais baixos
- 🆕 Provedor mais novo (menor histórico)
- 🌐 Requer conexão com a internet
Google Gemini
Melhor para: Projetos multilíngues, tradução econômica, integração com ecossistema Google
Os modelos Gemini oferecem fortes capacidades multilíngues com preços competitivos e recursos únicos como o modo de pensamento para raciocínio aprimorado.
Modelos Disponíveis
- gemini-2.5-pro (Último modelo principal com pensamento)
- gemini-2.5-flash (Rápido, com suporte a pensamento)
- gemini-2.5-flash-lite (Variante leve)
- gemini-2.0-flash e gemini-2.0-flash-lite
- gemini-1.5-pro e gemini-1.5-flash

Opções de Configuração
- Chave da API: Sua chave de API do Google AI (obrigatória)
- URL Base: Endpoint da API Gemini
- Modelo: Selecione da família de modelos Gemini
- Temperatura: 0.0-2.0 (0.3 recomendado)
- Tokens de Saída Máximos: 1-8.192 tokens
- Tempo Limite da Requisição: 5-300 segundos
- Habilitar Pensamento: Ativa o raciocínio aprimorado para modelos 2.5
- Orçamento de Pensamento: Controla a alocação de tokens de pensamento
Pontos Fortes
- ✅ Forte suporte multilíngue
- ✅ Preços competitivos
- ✅ Raciocínio avançado (modo de pensamento)
- ✅ Integração com ecossistema Google
- ✅ Atualizações regulares de modelos
Considerações
- 🧠 O modo de pensamento aumenta o uso de tokens
- 📏 Limites de tokens variáveis por modelo
- 🌐 Conexão com a internet necessária
Escolhendo o Provedor Certo
| Provedor | Melhor Para | Qualidade | Custo | Configuração | Privacidade |
|---|---|---|---|---|---|
| Ollama | Privacidade/offline | Variável* | Grátis | Avançada | Local |
| OpenAI | Maior qualidade | ⭐⭐⭐⭐⭐ | 💰💰💰 | Fácil | Nuvem |
| Claude | Conteúdo criativo | ⭐⭐⭐⭐⭐ | 💰💰💰💰 | Fácil | Nuvem |
| DeepSeek | Projetos com orçamento | ⭐⭐⭐⭐ | 💰 | Fácil | Nuvem |
| Gemini | Multilíngue | ⭐⭐⭐⭐ | 💰 | Fácil | Nuvem |
*A qualidade para o Ollama varia significativamente com base no modelo local usado - alguns modelos locais modernos podem igualar ou superar provedores em nuvem.
Dicas de Configuração do Provedor
Para Todos os Provedores em Nuvem:
- Armazene as chaves de API com segurança e não as envie para controle de versão
- Comece com configurações de temperatura conservadoras (0.3) para traduções consistentes
- Monitore seu uso e custos da API
- Teste com lotes pequenos antes de execuções de tradução grandes
Para Ollama:
- Garanta RAM adequada (8GB+ recomendado para modelos maiores)
- Use armazenamento SSD para melhor desempenho de carregamento de modelos
- Considere aceleração por GPU para inferência mais rápida
- Teste localmente antes de confiar nele para traduções de produção