Saltar al contenido principal

Proveedores de Traducción

El AI Localization Automator admite cinco proveedores de IA diferentes, cada uno con fortalezas únicas y opciones de configuración. Elija el proveedor que mejor se adapte a las necesidades, el presupuesto y los requisitos de calidad de su proyecto.

Ollama (IA Local)

Ideal para: Proyectos sensibles a la privacidad, traducción sin conexión, uso ilimitado

Ollama ejecuta modelos de IA localmente en su máquina, proporcionando privacidad y control completos sin costos de API ni requisitos de internet.

  • translategemma:12b (Modelo de traducción especializado basado en Gemma 3)
  • llama3.2 (Propósito general recomendado)
  • mistral (Alternativa eficiente)
  • codellama (Traducciones conscientes del código)
  • Y muchos más modelos de la comunidad

Opciones de Configuración

  • URL Base: Servidor local de Ollama (predeterminado: http://localhost:11434)
  • Modelo: Nombre del modelo instalado localmente (requerido)
  • Usar API de Chat: Habilitar para un mejor manejo de conversaciones
  • Temperatura: 0.0-2.0 (0.3 recomendado)
  • Tokens Máximos: 1-8,192 tokens
  • Tamaño de Contexto: 512-32,768 tokens
  • Tiempo de Espera de Solicitud: 10-300 segundos (los modelos locales pueden ser más lentos)
  • Habilitar Streaming: Para procesamiento de respuestas en tiempo real

Fortalezas

  • ✅ Privacidad completa (los datos no salen de su máquina)
  • ✅ Sin costos de API ni límites de uso
  • ✅ Funciona sin conexión
  • ✅ Control total sobre los parámetros del modelo
  • ✅ Amplia variedad de modelos comunitarios
  • ✅ Sin dependencia de proveedor

Consideraciones

  • 💻 Requiere configuración local y hardware capaz
  • ⚡ Generalmente más lento que los proveedores en la nube
  • 🔧 Se requiere una configuración más técnica
  • 📊 La calidad de la traducción varía significativamente según el modelo (algunos pueden superar a los proveedores en la nube)
  • 💾 Grandes requisitos de almacenamiento para los modelos

Configuración de Ollama

  1. Instalar Ollama: Descargue desde ollama.ai e instálelo en su sistema
  2. Descargar Modelos: Use ollama pull translategemma:12b para descargar el modelo elegido
  3. Iniciar Servidor: Ollama se ejecuta automáticamente, o inícielo con ollama serve
  4. Configurar Plugin: Establezca la URL base y el nombre del modelo en la configuración del plugin
  5. Probar Conexión: El plugin verificará la conectividad cuando aplique la configuración

OpenAI

Ideal para: La más alta calidad general de traducción, amplia selección de modelos

OpenAI proporciona modelos de lenguaje líderes en la industria a través de su API, incluidos los últimos modelos GPT y el nuevo formato de API de Respuestas.

Modelos Disponibles

  • gpt-5 (Último modelo insignia)
  • gpt-5-mini (Variante más pequeña y rápida)
  • gpt-4.1 y gpt-4.1-mini
  • gpt-4o y gpt-4o-mini (Modelos optimizados)
  • o3 y o3-mini (Razonamiento avanzado)
  • o1 y o1-mini (Generación anterior)

Opciones de Configuración

  • Clave API: Su clave de API de OpenAI (requerida)
  • URL Base: Punto final de la API (predeterminado: servidores de OpenAI)
  • Modelo: Elija entre los modelos GPT disponibles
  • Temperatura: 0.0-2.0 (0.3 recomendado para consistencia en traducción)
  • Tokens de Salida Máximos: 1-128,000 tokens
  • Tiempo de Espera de Solicitud: 5-300 segundos
  • Verbosidad: Controlar el nivel de detalle de la respuesta

Fortalezas

  • ✅ Traducciones de calidad consistentemente alta
  • ✅ Excelente comprensión del contexto
  • ✅ Fuerte preservación del formato
  • ✅ Amplio soporte de idiomas
  • ✅ Tiempo de actividad de API confiable

Consideraciones

  • 💰 Costo más alto por solicitud
  • 🌐 Requiere conexión a internet
  • ⏱️ Límites de uso basados en el nivel

Anthropic Claude

Ideal para: Traducciones matizadas, contenido creativo, aplicaciones centradas en la seguridad

Los modelos Claude sobresalen en la comprensión del contexto y los matices, lo que los hace ideales para juegos con mucha narrativa y escenarios de localización complejos.

Modelos Disponibles

  • claude-opus-4-1-20250805 (Último modelo insignia)
  • claude-opus-4-20250514
  • claude-sonnet-4-20250514
  • claude-3-7-sonnet-20250219
  • claude-3-5-haiku-20241022 (Rápido y eficiente)
  • claude-3-haiku-20240307

Opciones de Configuración

  • Clave API: Su clave de API de Anthropic (requerida)
  • URL Base: Punto final de la API de Claude
  • Modelo: Seleccione de la familia de modelos Claude
  • Temperatura: 0.0-1.0 (0.3 recomendado)
  • Tokens Máximos: 1-64,000 tokens
  • Tiempo de Espera de Solicitud: 5-300 segundos
  • Versión Anthropic: Encabezado de versión de la API

Fortalezas

  • ✅ Conciencia contextual excepcional
  • ✅ Excelente para contenido creativo/narrativo
  • ✅ Fuertes características de seguridad
  • ✅ Capacidades de razonamiento detalladas
  • ✅ Seguimiento excelente de instrucciones

Consideraciones

  • 💰 Modelo de precios premium
  • 🌐 Se requiere conexión a internet
  • 📏 Los límites de tokens varían según el modelo

DeepSeek

Ideal para: Traducción rentable, alto rendimiento, proyectos conscientes del presupuesto

DeepSeek ofrece calidad de traducción competitiva a una fracción del costo de otros proveedores, lo que lo hace ideal para proyectos de localización a gran escala.

Modelos Disponibles

  • deepseek-chat (Propósito general, recomendado)
  • deepseek-reasoner (Capacidades de razonamiento mejoradas)

Opciones de Configuración

  • Clave API: Su clave de API de DeepSeek (requerida)
  • URL Base: Punto final de la API de DeepSeek
  • Modelo: Elija entre modelos de chat y de razonamiento
  • Temperatura: 0.0-2.0 (0.3 recomendado)
  • Tokens Máximos: 1-8,192 tokens
  • Tiempo de Espera de Solicitud: 5-300 segundos

Fortalezas

  • ✅ Muy rentable
  • ✅ Buena calidad de traducción
  • ✅ Tiempos de respuesta rápidos
  • ✅ Configuración simple
  • ✅ Límites de tasa altos

Consideraciones

  • 📏 Límites de tokens más bajos
  • 🆕 Proveedor más nuevo (menos historial)
  • 🌐 Requiere conexión a internet

Google Gemini

Ideal para: Proyectos multilingües, traducción rentable, integración con el ecosistema de Google

Los modelos Gemini ofrecen sólidas capacidades multilingües con precios competitivos y características únicas como el modo de pensamiento para un razonamiento mejorado.

Modelos Disponibles

  • gemini-2.5-pro (Último modelo insignia con pensamiento)
  • gemini-2.5-flash (Rápido, con soporte de pensamiento)
  • gemini-2.5-flash-lite (Variante ligera)
  • gemini-2.0-flash y gemini-2.0-flash-lite
  • gemini-1.5-pro y gemini-1.5-flash

Opciones de Configuración

  • Clave API: Su clave de API de Google AI (requerida)
  • URL Base: Punto final de la API de Gemini
  • Modelo: Seleccione de la familia de modelos Gemini
  • Temperatura: 0.0-2.0 (0.3 recomendado)
  • Tokens de Salida Máximos: 1-8,192 tokens
  • Tiempo de Espera de Solicitud: 5-300 segundos
  • Habilitar Pensamiento: Activar razonamiento mejorado para modelos 2.5
  • Presupuesto de Pensamiento: Controlar la asignación de tokens de pensamiento

Fortalezas

  • ✅ Fuerte soporte multilingüe
  • ✅ Precios competitivos
  • ✅ Razonamiento avanzado (modo de pensamiento)
  • ✅ Integración con el ecosistema de Google
  • ✅ Actualizaciones regulares de modelos

Consideraciones

  • 🧠 El modo de pensamiento aumenta el uso de tokens
  • 📏 Límites de tokens variables según el modelo
  • 🌐 Se requiere conexión a internet

Elegir el Proveedor Correcto

ProveedorIdeal ParaCalidadCostoConfiguraciónPrivacidad
OllamaPrivacidad/sin conexiónVariable*GratisAvanzadaLocal
OpenAIMáxima calidad⭐⭐⭐⭐⭐💰💰💰FácilNube
ClaudeContenido creativo⭐⭐⭐⭐⭐💰💰💰💰FácilNube
DeepSeekProyectos con presupuesto⭐⭐⭐⭐💰FácilNube
GeminiMultilingüe⭐⭐⭐⭐💰FácilNube

*La calidad para Ollama varía significativamente según el modelo local utilizado; algunos modelos locales modernos pueden igualar o superar a los proveedores en la nube.

Consejos de Configuración del Proveedor

Para Todos los Proveedores en la Nube:

  • Almacene las claves API de forma segura y no las incluya en el control de versiones
  • Comience con configuraciones de temperatura conservadoras (0.3) para traducciones consistentes
  • Supervise su uso de API y costos
  • Pruebe con lotes pequeños antes de ejecuciones de traducción grandes

Para Ollama:

  • Asegúrese de tener RAM suficiente (8GB+ recomendado para modelos más grandes)
  • Use almacenamiento SSD para un mejor rendimiento de carga de modelos
  • Considere la aceleración por GPU para una inferencia más rápida
  • Pruebe localmente antes de confiar en él para traducciones de producción