跳到主要内容

翻译服务提供商

AI Localization Automator支持五种不同的 AI 服务提供商,每种都有其独特的优势和配置选项。选择最适合您项目需求、预算和质量要求的提供商。

Ollama(本地 AI)

最适合:注重隐私的项目、离线翻译、无限制使用

Ollama 在您的机器上本地运行 AI 模型,提供完全的隐私和控制,无需 API 成本或互联网要求。

  • llama3.2(推荐的通用模型)
  • mistral(高效替代方案)
  • codellama(代码感知翻译)
  • 以及更多社区模型

配置选项

  • 基础 URL:本地 Ollama 服务器(默认:http://localhost:11434
  • 模型:本地安装的模型名称(必需)
  • 使用聊天 API:启用以获得更好的对话处理
  • 温度:0.0-2.0(推荐 0.3)
  • 最大令牌数:1-8,192 个令牌
  • 上下文大小:512-32,768 个令牌
  • 请求超时:10-300 秒(本地模型可能较慢)
  • 启用流式传输:用于实时响应处理

优势

  • ✅ 完全隐私(数据不会离开您的机器)
  • ✅ 无 API 成本或使用限制
  • ✅ 可离线工作
  • ✅ 完全控制模型参数
  • ✅ 种类繁多的社区模型
  • ✅ 无供应商锁定

注意事项

  • 💻 需要本地设置和性能足够的硬件
  • ⚡ 通常比云提供商慢
  • 🔧 需要更多技术设置
  • 📊 翻译质量因模型而异(有些可能超过云提供商)
  • 💾 模型需要大量存储空间

设置 Ollama

  1. 安装 Ollama:从 ollama.ai 下载并安装到您的系统
  2. 下载模型:使用 ollama pull llama3.2 下载您选择的模型
  3. 启动服务器:Ollama 会自动运行,或使用 ollama serve 启动
  4. 配置插件:在插件设置中设置基础 URL 和模型名称
  5. 测试连接:应用配置时,插件将验证连接性

OpenAI

最适合:最高的整体翻译质量、广泛的模型选择

OpenAI 通过其 API 提供行业领先的语言模型,包括最新的 GPT 模型和新的 Responses API 格式。

可用模型

  • gpt-5(最新的旗舰模型)
  • gpt-5-mini(更小、更快的变体)
  • gpt-4.1gpt-4.1-mini
  • gpt-4ogpt-4o-mini(优化模型)
  • o3o3-mini(高级推理)
  • o1o1-mini(上一代)

配置选项

  • API Key: 您的 OpenAI API 密钥(必需)
  • Base URL: API 端点(默认:OpenAI 服务器)
  • Model: 从可用的 GPT 模型中选择
  • Temperature: 0.0-2.0(推荐 0.3 以确保翻译一致性)
  • Max Output Tokens: 1-128,000 个令牌
  • Request Timeout: 5-300 秒
  • Verbosity: 控制响应详细程度

优势

  • ✅ 持续提供高质量的翻译
  • ✅ 出色的上下文理解能力
  • ✅ 强大的格式保留能力
  • ✅ 广泛的语言支持
  • ✅ 可靠的 API 正常运行时间

注意事项

  • 💰 每次请求成本较高
  • 🌐 需要互联网连接
  • ⏱️ 使用限制基于订阅层级

Anthropic Claude

最适合:细致入微的翻译、创意内容、注重安全性的应用

Claude 模型擅长理解上下文和细微差别,使其成为叙事性强的游戏和复杂本地化场景的理想选择。

可用模型

  • claude-opus-4-1-20250805 (最新旗舰版)
  • claude-opus-4-20250514
  • claude-sonnet-4-20250514
  • claude-3-7-sonnet-20250219
  • claude-3-5-haiku-20241022 (快速高效)
  • claude-3-haiku-20240307

配置选项

  • API Key: 您的 Anthropic API 密钥(必需)
  • Base URL: Claude API 端点
  • Model: 从 Claude 模型系列中选择
  • Temperature: 0.0-1.0(推荐 0.3)
  • Max Tokens: 1-64,000 个令牌
  • Request Timeout: 5-300 秒
  • Anthropic Version: API 版本标头

优势

  • ✅ 卓越的上下文感知能力
  • ✅ 非常适合创意/叙事内容
  • ✅ 强大的安全功能
  • ✅ 详细的推理能力
  • ✅ 出色的指令遵循能力

注意事项

  • 💰 高级定价模式
  • 🌐 需要互联网连接
  • 📏 令牌限制因模型而异

DeepSeek

最适合:经济高效的翻译、高吞吐量、预算敏感的项目

DeepSeek 以极具竞争力的价格提供优质的翻译质量,使其成为大规模本地化项目的理想选择。

可用模型

  • deepseek-chat (通用型,推荐)
  • deepseek-reasoner (增强的推理能力)

配置选项

  • API Key: 您的 DeepSeek API 密钥(必需)
  • Base URL: DeepSeek API 端点
  • Model: 在聊天模型和推理模型之间选择
  • Temperature: 0.0-2.0(推荐 0.3)
  • Max Tokens: 1-8,192 个令牌
  • Request Timeout: 5-300 秒

优势

  • ✅ 非常经济高效
  • ✅ 良好的翻译质量
  • ✅ 快速的响应时间
  • ✅ 配置简单
  • ✅ 高频率限制

注意事项

  • 📏 较低的 Token 限制
  • 🆕 较新的提供商(记录较少)
  • 🌐 需要互联网连接

Google Gemini

最适合:多语言项目、经济高效的翻译、Google 生态系统集成

Gemini 模型提供强大的多语言能力,具有有竞争力的定价和独特功能,如用于增强推理的思考模式。

可用模型

  • gemini-2.5-pro(最新的旗舰版,带思考功能)
  • gemini-2.5-flash(快速,支持思考)
  • gemini-2.5-flash-lite(轻量级变体)
  • gemini-2.0-flashgemini-2.0-flash-lite
  • gemini-1.5-progemini-1.5-flash

配置选项

  • API 密钥:您的 Google AI API 密钥(必需)
  • 基础 URL:Gemini API 端点
  • 模型:从 Gemini 模型系列中选择
  • 温度:0.0-2.0(推荐 0.3)
  • 最大输出 Token 数:1-8,192 个 Token
  • 请求超时:5-300 秒
  • 启用思考:为 2.5 模型激活增强推理
  • 思考预算:控制思考 Token 的分配

优势

  • ✅ 强大的多语言支持
  • ✅ 有竞争力的定价
  • ✅ 高级推理(思考模式)
  • ✅ Google 生态系统集成
  • ✅ 定期模型更新

注意事项

  • 🧠 思考模式会增加 Token 使用量
  • 📏 不同模型的 Token 限制不同
  • 🌐 需要互联网连接

选择合适的提供商

提供商最适合质量成本设置隐私
Ollama隐私/离线可变*免费高级本地
OpenAI最高质量⭐⭐⭐⭐⭐💰💰💰简单云端
Claude创意内容⭐⭐⭐⭐⭐💰💰💰💰简单云端
DeepSeek预算项目⭐⭐⭐⭐💰简单云端
Gemini多语言⭐⭐⭐⭐💰简单云端

*Ollama 的质量因所使用的本地模型而有显著差异——一些现代本地模型可以匹配或超越云端提供商。

提供商配置提示

对于所有云端提供商:

  • 安全存储 API 密钥,不要将其提交到版本控制中
  • 从保守的温度设置(0.3)开始以获得一致的翻译
  • 监控您的 API 使用情况和成本
  • 在进行大规模翻译之前先进行小批量测试

对于 Ollama:

  • 确保有足够的 RAM(推荐 8GB+ 以运行更大的模型)
  • 使用 SSD 存储以获得更好的模型加载性能
  • 考虑使用 GPU 加速以获得更快的推理速度
  • 在依赖其进行生产翻译之前先在本地测试