Proveedores de Traducción
El AI Localization Automator admite cinco proveedores de IA diferentes, cada uno con fortalezas únicas y opciones de configuración. Elija el proveedor que mejor se adapte a las necesidades, el presupuesto y los requisitos de calidad de su proyecto.
Ollama (IA Local)
Ideal para: Proyectos sensibles a la privacidad, traducción sin conexión, uso ilimitado
Ollama ejecuta modelos de IA localmente en su máquina, proporcionando privacidad y control completos sin costos de API ni requisitos de internet.
Modelos Populares
- translategemma:12b (Modelo de traducción especializado basado en Gemma 3)
- llama3.2 (Propósito general recomendado)
- mistral (Alternativa eficiente)
- codellama (Traducciones conscientes del código)
- Y muchos más modelos de la comunidad

Opciones de Configuración
- URL Base: Servidor local de Ollama (predeterminado:
http://localhost:11434) - Modelo: Nombre del modelo instalado localmente (requerido)
- Usar API de Chat: Habilitar para un mejor manejo de conversaciones
- Temperatura: 0.0-2.0 (0.3 recomendado)
- Tokens Máximos: 1-8,192 tokens
- Tamaño de Contexto: 512-32,768 tokens
- Tiempo de Espera de Solicitud: 10-300 segundos (los modelos locales pueden ser más lentos)
- Habilitar Streaming: Para procesamiento de respuestas en tiempo real
Fortalezas
- ✅ Privacidad completa (los datos no salen de su máquina)
- ✅ Sin costos de API ni límites de uso
- ✅ Funciona sin conexión
- ✅ Control total sobre los parámetros del modelo
- ✅ Amplia variedad de modelos comunitarios
- ✅ Sin dependencia de proveedor
Consideraciones
- 💻 Requiere configuración local y hardware capaz
- ⚡ Generalmente más lento que los proveedores en la nube
- 🔧 Se requiere una configuración más técnica
- 📊 La calidad de la traducción varía significativamente según el modelo (algunos pueden superar a los proveedores en la nube)
- 💾 Grandes requisitos de almacenamiento para los modelos
Configuración de Ollama
- Instalar Ollama: Descargue desde ollama.ai e instálelo en su sistema
- Descargar Modelos: Use
ollama pull translategemma:12bpara descargar el modelo elegido - Iniciar Servidor: Ollama se ejecuta automáticamente, o inícielo con
ollama serve - Configurar Plugin: Establezca la URL base y el nombre del modelo en la configuración del plugin
- Probar Conexión: El plugin verificará la conectividad cuando aplique la configuración
OpenAI
Ideal para: La más alta calidad general de traducción, amplia selección de modelos
OpenAI proporciona modelos de lenguaje líderes en la industria a través de su API, incluidos los últimos modelos GPT y el nuevo formato de API de Respuestas.
Modelos Disponibles
- gpt-5 (Último modelo insignia)
- gpt-5-mini (Variante más pequeña y rápida)
- gpt-4.1 y gpt-4.1-mini
- gpt-4o y gpt-4o-mini (Modelos optimizados)
- o3 y o3-mini (Razonamiento avanzado)
- o1 y o1-mini (Generación anterior)

Opciones de Configuración
- Clave API: Su clave de API de OpenAI (requerida)
- URL Base: Punto final de la API (predeterminado: servidores de OpenAI)
- Modelo: Elija entre los modelos GPT disponibles
- Temperatura: 0.0-2.0 (0.3 recomendado para consistencia en traducción)
- Tokens de Salida Máximos: 1-128,000 tokens
- Tiempo de Espera de Solicitud: 5-300 segundos
- Verbosidad: Controlar el nivel de detalle de la respuesta
Fortalezas
- ✅ Traducciones de calidad consistentemente alta
- ✅ Excelente comprensión del contexto
- ✅ Fuerte preservación del formato
- ✅ Amplio soporte de idiomas
- ✅ Tiempo de actividad de API confiable
Consideraciones
- 💰 Costo más alto por solicitud
- 🌐 Requiere conexión a internet
- ⏱️ Límites de uso basados en el nivel
Anthropic Claude
Ideal para: Traducciones matizadas, contenido creativo, aplicaciones centradas en la seguridad
Los modelos Claude sobresalen en la comprensión del contexto y los matices, lo que los hace ideales para juegos con mucha narrativa y escenarios de localización complejos.
Modelos Disponibles
- claude-opus-4-1-20250805 (Último modelo insignia)
- claude-opus-4-20250514
- claude-sonnet-4-20250514
- claude-3-7-sonnet-20250219
- claude-3-5-haiku-20241022 (Rápido y eficiente)
- claude-3-haiku-20240307

Opciones de Configuración
- Clave API: Su clave de API de Anthropic (requerida)
- URL Base: Punto final de la API de Claude
- Modelo: Seleccione de la familia de modelos Claude
- Temperatura: 0.0-1.0 (0.3 recomendado)
- Tokens Máximos: 1-64,000 tokens
- Tiempo de Espera de Solicitud: 5-300 segundos
- Versión Anthropic: Encabezado de versión de la API
Fortalezas
- ✅ Conciencia contextual excepcional
- ✅ Excelente para contenido creativo/narrativo
- ✅ Fuertes características de seguridad
- ✅ Capacidades de razonamiento detalladas
- ✅ Seguimiento excelente de instrucciones
Consideraciones
- 💰 Modelo de precios premium
- 🌐 Se requiere conexión a internet
- 📏 Los límites de tokens varían según el modelo
DeepSeek
Ideal para: Traducción rentable, alto rendimiento, proyectos conscientes del presupuesto
DeepSeek ofrece calidad de traducción competitiva a una fracción del costo de otros proveedores, lo que lo hace ideal para proyectos de localización a gran escala.
Modelos Disponibles
- deepseek-chat (Propósito general, recomendado)
- deepseek-reasoner (Capacidades de razonamiento mejoradas)

Opciones de Configuración
- Clave API: Su clave de API de DeepSeek (requerida)
- URL Base: Punto final de la API de DeepSeek
- Modelo: Elija entre modelos de chat y de razonamiento
- Temperatura: 0.0-2.0 (0.3 recomendado)
- Tokens Máximos: 1-8,192 tokens
- Tiempo de Espera de Solicitud: 5-300 segundos
Fortalezas
- ✅ Muy rentable
- ✅ Buena calidad de traducción
- ✅ Tiempos de respuesta rápidos
- ✅ Configuración simple
- ✅ Límites de tasa altos
Consideraciones
- 📏 Límites de tokens más bajos
- 🆕 Proveedor más nuevo (menos historial)
- 🌐 Requiere conexión a internet
Google Gemini
Ideal para: Proyectos multilingües, traducción rentable, integración con el ecosistema de Google
Los modelos Gemini ofrecen sólidas capacidades multilingües con precios competitivos y características únicas como el modo de pensamiento para un razonamiento mejorado.
Modelos Disponibles
- gemini-2.5-pro (Último modelo insignia con pensamiento)
- gemini-2.5-flash (Rápido, con soporte de pensamiento)
- gemini-2.5-flash-lite (Variante ligera)
- gemini-2.0-flash y gemini-2.0-flash-lite
- gemini-1.5-pro y gemini-1.5-flash

Opciones de Configuración
- Clave API: Su clave de API de Google AI (requerida)
- URL Base: Punto final de la API de Gemini
- Modelo: Seleccione de la familia de modelos Gemini
- Temperatura: 0.0-2.0 (0.3 recomendado)
- Tokens de Salida Máximos: 1-8,192 tokens
- Tiempo de Espera de Solicitud: 5-300 segundos
- Habilitar Pensamiento: Activar razonamiento mejorado para modelos 2.5
- Presupuesto de Pensamiento: Controlar la asignación de tokens de pensamiento
Fortalezas
- ✅ Fuerte soporte multilingüe
- ✅ Precios competitivos
- ✅ Razonamiento avanzado (modo de pensamiento)
- ✅ Integración con el ecosistema de Google
- ✅ Actualizaciones regulares de modelos
Consideraciones
- 🧠 El modo de pensamiento aumenta el uso de tokens
- 📏 Límites de tokens variables según el modelo
- 🌐 Se requiere conexión a internet
Elegir el Proveedor Correcto
| Proveedor | Ideal Para | Calidad | Costo | Configuración | Privacidad |
|---|---|---|---|---|---|
| Ollama | Privacidad/sin conexión | Variable* | Gratis | Avanzada | Local |
| OpenAI | Máxima calidad | ⭐⭐⭐⭐⭐ | 💰💰💰 | Fácil | Nube |
| Claude | Contenido creativo | ⭐⭐⭐⭐⭐ | 💰💰💰💰 | Fácil | Nube |
| DeepSeek | Proyectos con presupuesto | ⭐⭐⭐⭐ | 💰 | Fácil | Nube |
| Gemini | Multilingüe | ⭐⭐⭐⭐ | 💰 | Fácil | Nube |
*La calidad para Ollama varía significativamente según el modelo local utilizado; algunos modelos locales modernos pueden igualar o superar a los proveedores en la nube.
Consejos de Configuración del Proveedor
Para Todos los Proveedores en la Nube:
- Almacene las claves API de forma segura y no las incluya en el control de versiones
- Comience con configuraciones de temperatura conservadoras (0.3) para traducciones consistentes
- Supervise su uso de API y costos
- Pruebe con lotes pequeños antes de ejecuciones de traducción grandes
Para Ollama:
- Asegúrese de tener RAM suficiente (8GB+ recomendado para modelos más grandes)
- Use almacenamiento SSD para un mejor rendimiento de carga de modelos
- Considere la aceleración por GPU para una inferencia más rápida
- Pruebe localmente antes de confiar en él para traducciones de producción