概述

AI Localization Automator 是一个强大的 Unreal Engine 插件,它利用 AI 驱动的翻译服务简化游戏本地化流程。它无缝集成到 UE 内置的 Localization Dashboard 中,并支持多种 AI 服务提供商,包括 OpenAI、Anthropic Claude、DeepSeek、Google Gemini 以及用于本地 AI 翻译的 Ollama。
翻译后的内容适用于 所有 Unreal Engine 目标平台——生成的本地化文件是通用的,可以在您部署 UE 项目的任何地方使用。
主要特性
- 多种 AI 提供商:可从 OpenAI、Claude、DeepSeek、Gemini 中选择,或使用 Ollama 在本地运行
- 无缝集成:内置与 Unreal Engine 的 Localization Dashboard 集成
- 批量处理:通过可配置的并发设置高效翻译数百个文本条目
- 智能重试系统:具有可配置失败阈值的自动重试逻辑
- 实时进度跟踪:带有详细状态信息的实时进度更新
- 上下文感知翻译:使用特定文化的语言名称和可自定义的提示词
- 预设系统:为不同项目保存和加载完整的配置预设
- 会话管理:跟踪当前会话中进行了哪些翻译
- 稳健的错误处理:全面的错误报告和恢复机制
- 生产就绪:经过大规模本地化项目的广泛测试
工作原理
该插件通过 UE 的本地化系统自动发现项目中的所有可本地化文本,然后使用您选择的 AI 提供商将内容翻译成目标语言。翻译过程如下:
- 自动发现:从您的本地化目标中查找所有已收集的文本条目
- 智能批处理:通过可配置的并发请求处理翻译
- AI 翻译:向您选择的 AI 提供商发送上下文感知的提示词
- 质量控制:保留格式说明符、占位符和特殊标记
- 集成:将结果直接保存到 UE 的本地化归档文件中
- 进度跟踪:提供翻译进度的实时反馈
支持的 AI 提供商
本地 AI
- Ollama: 本地运行 AI 模型,实现完全的隐私和控制
- 无 API 成本或使用限制
- 模型下载后可在离线状态下工作
- 支持流行的模型,如 Llama、Mistral、CodeLlama
- 完全控制模型参数
云提供商
- OpenAI: 包括最新的模型,如 GPT-4o 和 o3-mini,并支持 Responses API
- Anthropic Claude: 完整的模型阵容,包括 Claude Opus 4 和 Sonnet 模型
- DeepSeek: 具有成本效益的选择,提供 deepseek-chat 和 deepseek-reasoner 模型
- Google Gemini: 完整的 Gemini 系列,包括具有思考能力的 2.5 Pro
经过生产环境测试的可靠性
本插件已在真实的游戏开发场景中经过实战测试:
- ✅ 大量内容: 成功处理了包含数千条文本条目的项目
- ✅ 多语言: 已验证可同时处理 10 种以上目标语言的工作流程
- ✅ 复杂文本: 正确处理格式字符串、富文本标记和特殊字符
- ✅ 错误恢复: 稳健处理网络问题、API 限制和提供商中断
- ✅ 团队工作流程: 专为协作开发环境设计
安装与设置
该插件直接集成到 UE 的本地化仪表板中。安装后:
- 通过仪表板访问: 在您的本地化目标工具栏中找到“AI 翻译”按钮
- 选择提供商: 选择并配置您首选的 AI 翻译服务
- 自定义设置: 调整并发数、重试限制和提示模板
- 开始翻译: 一键处理所有待翻译内容
- 保存结果: 完成的翻译无缝集成到您的本地化文件中
有关详细设置说明,请参阅 入门指南。
其他资源
- 在 Fab 上获取
- 产品网站
- Discord 支持服务器
- 视频教程
- 插件支持与定制开发: [email protected] (为团队和组织提供量身定制的解决方案)