跳到主要内容

翻译提供商

AI Localization Automator 支持五种不同的 AI 提供商,每种都有其独特的优势和配置选项。请根据项目的需求、预算和质量要求选择最合适的提供商。

Ollama (本地 AI)

最适合:注重隐私的项目、离线翻译、无限使用

Ollama 在您的本地机器上运行 AI 模型,提供完全的隐私和控制,无需 API 成本或互联网连接。

  • translategemma:12b (基于 Gemma 3 的专用翻译模型)
  • llama3.2 (推荐通用模型)
  • mistral (高效替代方案)
  • codellama (具备代码意识的翻译)
  • 以及更多社区模型

配置选项

  • 基础 URL:本地 Ollama 服务器 (默认: http://localhost:11434)
  • 模型:本地已安装模型的名称 (必需)
  • 使用聊天 API:启用以获得更好的对话处理
  • 温度:0.0-2.0 (推荐 0.3)
  • 最大令牌数:1-8,192 个令牌
  • 上下文大小:512-32,768 个令牌
  • 请求超时:10-300 秒 (本地模型可能较慢)
  • 启用流式传输:用于实时响应处理

优势

  • ✅ 完全隐私 (数据不会离开您的机器)
  • ✅ 无 API 成本或使用限制
  • ✅ 可离线工作
  • ✅ 完全控制模型参数
  • ✅ 种类繁多的社区模型
  • ✅ 无供应商锁定

注意事项

  • 💻 需要本地设置和足够的硬件能力
  • ⚡ 通常比云提供商慢
  • 🔧 需要更多技术设置
  • 📊 翻译质量因模型而异 (有些可能超过云提供商)
  • 💾 模型需要大量存储空间

设置 Ollama

  1. 安装 Ollama:从 ollama.ai 下载并安装到您的系统
  2. 下载模型:使用 ollama pull translategemma:12b 下载您选择的模型
  3. 启动服务器:Ollama 会自动运行,或使用 ollama serve 启动
  4. 配置插件:在插件设置中设置基础 URL 和模型名称
  5. 测试连接:应用配置时,插件将验证连接性

OpenAI

最适合:最高的整体翻译质量、广泛的模型选择

OpenAI 通过其 API 提供行业领先的语言模型,包括最新的 GPT 模型和新的 Responses API 格式。

可用模型

  • gpt-5 (最新旗舰模型)
  • gpt-5-mini (更小、更快的变体)
  • gpt-4.1gpt-4.1-mini
  • gpt-4ogpt-4o-mini (优化模型)
  • o3o3-mini (高级推理)
  • o1o1-mini (上一代)

配置选项

  • API 密钥:您的 OpenAI API 密钥 (必需)
  • 基础 URL:API 端点 (默认: OpenAI 的服务器)
  • 模型:从可用的 GPT 模型中选择
  • 温度:0.0-2.0 (推荐 0.3 以获得一致的翻译)
  • 最大输出令牌数:1-128,000 个令牌
  • 请求超时:5-300 秒
  • 详细程度:控制响应详细级别

优势

  • ✅ 始终如一的高质量翻译
  • ✅ 出色的上下文理解能力
  • ✅ 强大的格式保留能力
  • ✅ 广泛的语言支持
  • ✅ 可靠的 API 正常运行时间

注意事项

  • 💰 每次请求成本较高
  • 🌐 需要互联网连接
  • ⏱️ 基于套餐的使用限制

Anthropic Claude

最适合:细致的翻译、创意内容、注重安全的应用

Claude 模型擅长理解上下文和细微差别,使其成为叙事性强的游戏和复杂本地化场景的理想选择。

可用模型

  • claude-opus-4-1-20250805 (最新旗舰)
  • claude-opus-4-20250514
  • claude-sonnet-4-20250514
  • claude-3-7-sonnet-20250219
  • claude-3-5-haiku-20241022 (快速高效)
  • claude-3-haiku-20240307

配置选项

  • API 密钥:您的 Anthropic API 密钥 (必需)
  • 基础 URL:Claude API 端点
  • 模型:从 Claude 模型系列中选择
  • 温度:0.0-1.0 (推荐 0.3)
  • 最大令牌数:1-64,000 个令牌
  • 请求超时:5-300 秒
  • Anthropic 版本:API 版本标头

优势

  • ✅ 卓越的上下文感知能力
  • ✅ 非常适合创意/叙事内容
  • ✅ 强大的安全功能
  • ✅ 详细的推理能力
  • ✅ 出色的指令遵循能力

注意事项

  • 💰 高级定价模式
  • 🌐 需要互联网连接
  • 📏 令牌限制因模型而异

DeepSeek

最适合:经济高效的翻译、高吞吐量、注重预算的项目

DeepSeek 以远低于其他提供商的成本提供有竞争力的翻译质量,使其成为大规模本地化项目的理想选择。

可用模型

  • deepseek-chat (通用,推荐)
  • deepseek-reasoner (增强的推理能力)

配置选项

  • API 密钥:您的 DeepSeek API 密钥 (必需)
  • 基础 URL:DeepSeek API 端点
  • 模型:在聊天和推理器模型之间选择
  • 温度:0.0-2.0 (推荐 0.3)
  • 最大令牌数:1-8,192 个令牌
  • 请求超时:5-300 秒

优势

  • ✅ 非常经济高效
  • ✅ 良好的翻译质量
  • ✅ 快速的响应时间
  • ✅ 简单的配置
  • ✅ 高频率限制

注意事项

  • 📏 令牌限制较低
  • 🆕 较新的提供商 (记录较少)
  • 🌐 需要互联网连接

Google Gemini

最适合:多语言项目、经济高效的翻译、Google 生态系统集成

Gemini 模型提供强大的多语言能力,具有竞争力的定价以及独特的功能,如用于增强推理的思考模式。

可用模型

  • gemini-2.5-pro (最新旗舰,带思考功能)
  • gemini-2.5-flash (快速,支持思考)
  • gemini-2.5-flash-lite (轻量级变体)
  • gemini-2.0-flashgemini-2.0-flash-lite
  • gemini-1.5-progemini-1.5-flash

配置选项

  • API 密钥:您的 Google AI API 密钥 (必需)
  • 基础 URL:Gemini API 端点
  • 模型:从 Gemini 模型系列中选择
  • 温度:0.0-2.0 (推荐 0.3)
  • 最大输出令牌数:1-8,192 个令牌
  • 请求超时:5-300 秒
  • 启用思考:为 2.5 模型激活增强推理
  • 思考预算:控制思考令牌分配

优势

  • ✅ 强大的多语言支持
  • ✅ 有竞争力的定价
  • ✅ 高级推理 (思考模式)
  • ✅ Google 生态系统集成
  • ✅ 定期模型更新

注意事项

  • 🧠 思考模式会增加令牌使用量
  • 📏 令牌限制因模型而异
  • 🌐 需要互联网连接

选择合适的提供商

提供商最适合质量成本设置隐私
Ollama隐私/离线可变*免费高级本地
OpenAI最高质量⭐⭐⭐⭐⭐💰💰💰简单云端
Claude创意内容⭐⭐⭐⭐⭐💰💰💰💰简单云端
DeepSeek预算项目⭐⭐⭐⭐💰简单云端
Gemini多语言⭐⭐⭐⭐💰简单云端

*Ollama 的质量因使用的本地模型而异 - 一些现代本地模型可以匹配或超过云提供商。

提供商配置技巧

对于所有云提供商:

  • 安全存储 API 密钥,不要将其提交到版本控制
  • 从保守的温度设置 (0.3) 开始,以获得一致的翻译
  • 监控您的 API 使用情况和成本
  • 在进行大规模翻译运行之前,先用小批量进行测试

对于 Ollama:

  • 确保有足够的 RAM (推荐 8GB+ 用于较大模型)
  • 使用 SSD 存储以获得更好的模型加载性能
  • 考虑使用 GPU 加速以获得更快的推理速度
  • 在依赖其进行生产翻译之前,先在本地进行测试