概述
AI Localization Automator 是一款强大的 Unreal Engine 插件,它利用 AI 驱动的翻译服务简化游戏本地化流程。它与 UE 内置的 Localization Dashboard 无缝集成,并支持多种 AI 提供商,包括 OpenAI、Anthropic Claude、DeepSeek、Google Gemini 以及用于本地 AI 翻译的 Ollama。
翻译后的内容适用于 所有 Unreal Engine 目标平台 —— 生成的本地化文件是通用的,可以在您部署 UE 项目的任何地方使用。
主要特性
- 多 AI 提供商支持:可选择 OpenAI、Claude、DeepSeek、Gemini,或使用 Ollama 在本地运行
- 无缝集成:与 Unreal Engine 的 Localization Dashboard 内置集成
- 批量处理:通过可配置的并发设置高效翻译数百个文本条目
- 智能重试系统:具有可配置失败阈值的自动重试逻辑
- 实时进度跟踪:提供详细状态信息的实时进度更新
- 上下文感知翻译:使用特定文化的语言名称和可自定义的提示词
- 预设系统:为不同项目保存和加载完整的配置预设
- 会话管理:跟踪当前会话中进行了哪些翻译
- 稳健的错误处理:全面的错误报告和恢复机制
- 生产就绪:经过大规模本地化项目的广泛测试
工作原理
该插件通过 UE 的本地化系统自动发现项目中的所有可本地化文本,然后使用您选择的 AI 提供商将内容翻译成目标语言。翻译过程如下:
- 自动发现:从您的本地化目标中查找所有收集的文本条目
- 智能批处理:通过可配置的并发请求处理翻译
- AI 翻译:向您选择的 AI 提供商发送上下文感知的提示词
- 质量控制:保留格式说明符、占位符和特殊标记
- 集成:将结果直接保存到 UE 的本地化存档文件中
- 进度跟踪:提供翻译进度的实时反馈
支持的 AI 供应商
本地 AI
- Ollama: 本地运行 AI 模型,实现完全的隐私和控制
- 无 API 成本或使用限制
- 模型下载后可离线工作
- 支持流行模型,如 Llama、Mistral、CodeLlama
- 完全控制模型参数
云供应商
- OpenAI: 包括最新模型,如 GPT-4o 和 o3-mini,并支持 Responses API
- Anthropic Claude: 完整模型阵容,包括 Claude Opus 4 和 Sonnet 模型
- DeepSeek: 具有成本效益的选择,提供 deepseek-chat 和 deepseek-reasoner 模型
- Google Gemini: 完整的 Gemini 系列,包括具有思考能力的 2.5 Pro
经过生产环境测试的可靠性
此插件已在真实的游戏开发场景中经过实战测试,具备:
- ✅ 大量内容处理能力: 成功处理了包含数千个文本条目的项目
- ✅ 多语言支持: 已验证可同时处理 10+ 种目标语言的工作流
- ✅ 复杂文本处理: 正确处理格式字符串、富文本标记和特殊字符
- ✅ 错误恢复: 稳健处理网络问题、API 限制和供应商中断
- ✅ 团队工作流: 专为协作开发环境设计
安装与设置
该插件直接与 UE 的本地化仪表板集成。安装后:
- 通过仪表板访问: 在您的本地化目标工具栏中找到“AI 翻译”按钮
- 选择供应商: 选择并配置您偏好的 AI 翻译服务
- 自定义设置: 调整并发数、重试限制和提示模板
- 开始翻译: 一键处理所有待翻译内容
- 保存结果: 完成的翻译无缝集成到您的本地化文件中
有关详细设置说明,请参阅入门指南。
其他资源
- 在 Fab 上获取
- 产品网站
- Discord 支持服务器
- 视频教程
- 定制开发: [email protected] (为团队和组织提供量身定制的解决方案)