Pular para o conteúdo principal

Provedores de Tradução

O AI Localization Automator suporta cinco diferentes provedores de IA, cada um com pontos fortes e opções de configuração únicos. Escolha o provedor que melhor se adequa às necessidades, orçamento e requisitos de qualidade do seu projeto.

Ollama (IA Local)

Melhor para: Projetos sensíveis à privacidade, tradução offline, uso ilimitado

O Ollama executa modelos de IA localmente na sua máquina, fornecendo privacidade e controle completos sem custos de API ou requisitos de internet.

  • translategemma:12b (Modelo de tradução especializado baseado no Gemma 3)
  • llama3.2 (Propósito geral recomendado)
  • mistral (Alternativa eficiente)
  • codellama (Traduções com consciência de código)
  • E muitos outros modelos da comunidade

Opções de Configuração

  • URL Base: Servidor Ollama local (padrão: http://localhost:11434)
  • Modelo: Nome do modelo instalado localmente (obrigatório)
  • Usar API de Chat: Habilitar para melhor manipulação de conversas
  • Temperatura: 0.0-2.0 (0.3 recomendado)
  • Tokens Máximos: 1-8.192 tokens
  • Tamanho do Contexto: 512-32.768 tokens
  • Tempo Limite da Requisição: 10-300 segundos (modelos locais podem ser mais lentos)
  • Habilitar Streaming: Para processamento de resposta em tempo real

Pontos Fortes

  • ✅ Privacidade completa (nenhum dado sai da sua máquina)
  • ✅ Sem custos de API ou limites de uso
  • ✅ Funciona offline
  • ✅ Controle total sobre os parâmetros do modelo
  • ✅ Grande variedade de modelos da comunidade
  • ✅ Sem dependência de fornecedor

Considerações

  • 💻 Requer configuração local e hardware capaz
  • ⚡ Geralmente mais lento que provedores em nuvem
  • 🔧 Configuração mais técnica necessária
  • 📊 A qualidade da tradução varia significativamente conforme o modelo (alguns podem superar provedores em nuvem)
  • 💾 Grandes requisitos de armazenamento para modelos

Configurando o Ollama

  1. Instale o Ollama: Baixe em ollama.ai e instale no seu sistema
  2. Baixe Modelos: Use ollama pull translategemma:12b para baixar o modelo escolhido
  3. Inicie o Servidor: O Ollama é executado automaticamente, ou inicie com ollama serve
  4. Configure o Plugin: Defina a URL base e o nome do modelo nas configurações do plugin
  5. Teste a Conexão: O plugin verificará a conectividade quando você aplicar a configuração

OpenAI

Melhor para: Maior qualidade geral de tradução, extensa seleção de modelos

A OpenAI fornece modelos de linguagem líderes do setor por meio de sua API, incluindo os últimos modelos GPT e o novo formato Responses API.

Modelos Disponíveis

  • gpt-5 (Último modelo principal)
  • gpt-5-mini (Variante menor e mais rápida)
  • gpt-4.1 e gpt-4.1-mini
  • gpt-4o e gpt-4o-mini (Modelos otimizados)
  • o3 e o3-mini (Raciocínio avançado)
  • o1 e o1-mini (Geração anterior)

Opções de Configuração

  • Chave da API: Sua chave de API da OpenAI (obrigatória)
  • URL Base: Endpoint da API (padrão: servidores da OpenAI)
  • Modelo: Escolha entre os modelos GPT disponíveis
  • Temperatura: 0.0-2.0 (0.3 recomendado para consistência na tradução)
  • Tokens de Saída Máximos: 1-128.000 tokens
  • Tempo Limite da Requisição: 5-300 segundos
  • Verbosity: Controla o nível de detalhe da resposta

Pontos Fortes

  • ✅ Traduções consistentemente de alta qualidade
  • ✅ Excelente compreensão de contexto
  • ✅ Forte preservação de formato
  • ✅ Amplo suporte a idiomas
  • ✅ Confiabilidade de tempo de atividade da API

Considerações

  • 💰 Custo mais alto por requisição
  • 🌐 Requer conexão com a internet
  • ⏱️ Limites de uso baseados no nível

Anthropic Claude

Melhor para: Traduções com nuances, conteúdo criativo, aplicações focadas em segurança

Os modelos Claude se destacam em entender contexto e nuance, tornando-os ideais para jogos com muita narrativa e cenários de localização complexos.

Modelos Disponíveis

  • claude-opus-4-1-20250805 (Último modelo principal)
  • claude-opus-4-20250514
  • claude-sonnet-4-20250514
  • claude-3-7-sonnet-20250219
  • claude-3-5-haiku-20241022 (Rápido e eficiente)
  • claude-3-haiku-20240307

Opções de Configuração

  • Chave da API: Sua chave de API da Anthropic (obrigatória)
  • URL Base: Endpoint da API Claude
  • Modelo: Selecione da família de modelos Claude
  • Temperatura: 0.0-1.0 (0.3 recomendado)
  • Tokens Máximos: 1-64.000 tokens
  • Tempo Limite da Requisição: 5-300 segundos
  • Versão Anthropic: Cabeçalho da versão da API

Pontos Fortes

  • ✅ Consciência contextual excepcional
  • ✅ Ótimo para conteúdo criativo/narrativo
  • ✅ Recursos de segurança robustos
  • ✅ Capacidades de raciocínio detalhadas
  • ✅ Excelente seguimento de instruções

Considerações

  • 💰 Modelo de preços premium
  • 🌐 Conexão com a internet necessária
  • 📏 Limites de tokens variam por modelo

DeepSeek

Melhor para: Tradução econômica, alta taxa de transferência, projetos com orçamento limitado

O DeepSeek oferece qualidade de tradução competitiva a uma fração do custo de outros provedores, tornando-o ideal para projetos de localização em grande escala.

Modelos Disponíveis

  • deepseek-chat (Propósito geral, recomendado)
  • deepseek-reasoner (Capacidades de raciocínio aprimoradas)

Opções de Configuração

  • Chave da API: Sua chave de API do DeepSeek (obrigatória)
  • URL Base: Endpoint da API DeepSeek
  • Modelo: Escolha entre os modelos chat e reasoner
  • Temperatura: 0.0-2.0 (0.3 recomendado)
  • Tokens Máximos: 1-8.192 tokens
  • Tempo Limite da Requisição: 5-300 segundos

Pontos Fortes

  • ✅ Muito econômico
  • ✅ Boa qualidade de tradução
  • ✅ Tempos de resposta rápidos
  • ✅ Configuração simples
  • ✅ Limites de taxa altos

Considerações

  • 📏 Limites de tokens mais baixos
  • 🆕 Provedor mais novo (menor histórico)
  • 🌐 Requer conexão com a internet

Google Gemini

Melhor para: Projetos multilíngues, tradução econômica, integração com ecossistema Google

Os modelos Gemini oferecem fortes capacidades multilíngues com preços competitivos e recursos únicos como o modo de pensamento para raciocínio aprimorado.

Modelos Disponíveis

  • gemini-2.5-pro (Último modelo principal com pensamento)
  • gemini-2.5-flash (Rápido, com suporte a pensamento)
  • gemini-2.5-flash-lite (Variante leve)
  • gemini-2.0-flash e gemini-2.0-flash-lite
  • gemini-1.5-pro e gemini-1.5-flash

Opções de Configuração

  • Chave da API: Sua chave de API do Google AI (obrigatória)
  • URL Base: Endpoint da API Gemini
  • Modelo: Selecione da família de modelos Gemini
  • Temperatura: 0.0-2.0 (0.3 recomendado)
  • Tokens de Saída Máximos: 1-8.192 tokens
  • Tempo Limite da Requisição: 5-300 segundos
  • Habilitar Pensamento: Ativa o raciocínio aprimorado para modelos 2.5
  • Orçamento de Pensamento: Controla a alocação de tokens de pensamento

Pontos Fortes

  • ✅ Forte suporte multilíngue
  • ✅ Preços competitivos
  • ✅ Raciocínio avançado (modo de pensamento)
  • ✅ Integração com ecossistema Google
  • ✅ Atualizações regulares de modelos

Considerações

  • 🧠 O modo de pensamento aumenta o uso de tokens
  • 📏 Limites de tokens variáveis por modelo
  • 🌐 Conexão com a internet necessária

Escolhendo o Provedor Certo

ProvedorMelhor ParaQualidadeCustoConfiguraçãoPrivacidade
OllamaPrivacidade/offlineVariável*GrátisAvançadaLocal
OpenAIMaior qualidade⭐⭐⭐⭐⭐💰💰💰FácilNuvem
ClaudeConteúdo criativo⭐⭐⭐⭐⭐💰💰💰💰FácilNuvem
DeepSeekProjetos com orçamento⭐⭐⭐⭐💰FácilNuvem
GeminiMultilíngue⭐⭐⭐⭐💰FácilNuvem

*A qualidade para o Ollama varia significativamente com base no modelo local usado - alguns modelos locais modernos podem igualar ou superar provedores em nuvem.

Dicas de Configuração do Provedor

Para Todos os Provedores em Nuvem:

  • Armazene as chaves de API com segurança e não as envie para controle de versão
  • Comece com configurações de temperatura conservadoras (0.3) para traduções consistentes
  • Monitore seu uso e custos da API
  • Teste com lotes pequenos antes de execuções de tradução grandes

Para Ollama:

  • Garanta RAM adequada (8GB+ recomendado para modelos maiores)
  • Use armazenamento SSD para melhor desempenho de carregamento de modelos
  • Considere aceleração por GPU para inferência mais rápida
  • Teste localmente antes de confiar nele para traduções de produção