翻訳プロバイダー
AI Localization Automator は、それぞれ独自の強みと設定オプションを持つ5つの異なるAIプロバイダーをサポートしています。プロジェクトのニーズ、予算、品質要件に最適なプロバイダーを選択してください。
Ollama (ローカルAI)
最適な用途: プライバシーに敏感なプロジェクト、オフライン翻訳、無制限の使用
OllamaはAIモデルをマシン上でローカルに実行し、APIコストやインターネット接続を必要とせず、完全なプライバシーと制御を提供します。
人気モデル
- translategemma:12b (Gemma 3ベースの専門翻訳モデル)
- llama3.2 (推奨汎用モデル)
- mistral (効率的な代替モデル)
- codellama (コードを意識した翻訳)
- その他多くのコミュニティモデル

設定オプション
- ベースURL: ローカルのOllamaサーバー (デフォルト:
http://localhost:11434) - モデル: ローカルにインストールされたモデルの名前 (必須)
- チャットAPIを使用: より良い会話処理のために有効化
- 温度: 0.0-2.0 (翻訳の一貫性のために0.3を推奨)
- 最大トークン数: 1-8,192トークン
- コンテキストサイズ: 512-32,768トークン
- リクエストタイムアウト: 10-300秒 (ローカルモデルは遅くなる可能性あり)
- ストリーミングを有効化: リアルタイムのレスポンス処理用
強み
- ✅ 完全なプライバシー (データがマシンを離れない)
- ✅ APIコストや使用制限なし
- ✅ オフラインで動作
- ✅ モデルパラメータの完全な制御
- ✅ 多様なコミュニティモデル
- ✅ ベンダーロックインなし
考慮点
- 💻 ローカルセットアップと十分なハードウェアが必要
- ⚡ 一般的にクラウドプロバイダーより遅い
- 🔧 より技術的なセットアップが必要
- 📊 翻訳品質はモデルによって大きく異なる (クラウドプロバイダーを超えるものもある)
- 💾 モデルに大きなストレージ容量が必要
Ollamaのセットアップ
- Ollamaのインストール: ollama.ai からダウンロードし、システムにインストール
- モデルのダウンロード:
ollama pull translategemma:12bを使用して選択したモデルをダウンロード - サーバーの起動: Ollamaは自動的に実行されるか、
ollama serveで起動 - プラグインの設定: プラグイン設定でベースURLとモデル名を設定
- 接続テスト: 設定を適用するとプラグインが接続性を検証
OpenAI
最適な用途: 全体的に最高の翻訳品質、豊富なモデル選択肢
OpenAIは、最新のGPTモデルや新しいResponses APIフォーマットを含む、業界をリードする言語モデルをAPIを通じて提供します。
利用可能なモデル
- gpt-5 (最新のフラッグシップモデル)
- gpt-5-mini (より小型で高速なバリアント)
- gpt-4.1 および gpt-4.1-mini
- gpt-4o および gpt-4o-mini (最適化モデル)
- o3 および o3-mini (高度な推論)
- o1 および o1-mini (前世代)

設定オプション
- APIキー: あなたのOpenAI APIキー (必須)
- ベースURL: APIエンドポイント (デフォルト: OpenAIのサーバー)
- モデル: 利用可能なGPTモデルから選択
- 温度: 0.0-2.0 (翻訳の一貫性のために0.3を推奨)
- 最大出力トークン数: 1-128,000トークン
- リクエストタイムアウト: 5-300秒
- 詳細度: レスポンスの詳細レベルを制御
強み
- ✅ 一貫して高品質な翻訳
- ✅ 優れたコンテキスト理解
- ✅ 強力なフォーマット保持
- ✅ 幅広い言語サポート
- ✅ 信頼性の高いAPI稼働時間
考慮点
- 💰 リクエストあたりのコストが高い
- 🌐 インターネット接続が必要
- ⏱️ 階層に基づく使用制限
Anthropic Claude
最適な用途: ニュアンスのある翻訳、クリエイティブコンテンツ、安全性重視のアプリケーション
Claudeモデルはコンテキストとニュアンスの理解に優れており、物語性の強いゲームや複雑なローカライゼーションシナリオに最適です。
利用可能なモデル
- claude-opus-4-1-20250805 (最新フラッグシップ)
- claude-opus-4-20250514
- claude-sonnet-4-20250514
- claude-3-7-sonnet-20250219
- claude-3-5-haiku-20241022 (高速で効率的)
- claude-3-haiku-20240307

設定オプション
- APIキー: あなたのAnthropic APIキー (必須)
- ベースURL: Claude APIエンドポイント
- モデル: Claudeモデルファミリーから選択
- 温度: 0.0-1.0 (0.3を推奨)
- 最大トークン数: 1-64,000トークン
- リクエストタイムアウト: 5-300秒
- Anthropicバージョン: APIバージョンヘッダー
強み
- ✅ 卓越したコンテキスト認識
- ✅ クリエイティブ/物語コンテンツに最適
- ✅ 強力な安全機能
- ✅ 詳細な推論能力
- ✅ 優れた指示への従順性
考慮点
- 💰 プレミアム価格モデル
- 🌐 インターネット接続が必要
- 📏 モデルによるトークン制限の違い
DeepSeek
最適な用途: コスト効率の良い翻訳、高スループット、予算重視のプロジェクト
DeepSeekは他のプロバイダーの数分の一のコストで競争力のある翻訳品質を提供し、大規模なローカライゼーションプロジェクトに最適です。
利用可能なモデル
- deepseek-chat (汎用、推奨)
- deepseek-reasoner (強化された推論能力)

設定オプション
- APIキー: あなたのDeepSeek APIキー (必須)
- ベースURL: DeepSeek APIエンドポイント
- モデル: チャットモデルとリゾーナーモデルの間で選択
- 温度: 0.0-2.0 (0.3を推奨)
- 最大トークン数: 1-8,192トークン
- リクエストタイムアウト: 5-300秒
強み
- ✅ 非常にコスト効率が良い
- ✅ 良好な翻訳品質
- ✅ 高速な応答時間
- ✅ シンプルな設定
- ✅ 高いレート制限
考慮点
- 📏 トークン制限が低い
- 🆕 新しいプロバイダー (実績が少ない)
- 🌐 インターネット接続が必要
Google Gemini
最適な用途: 多言語プロジェクト、コスト効率の良い翻訳、Googleエコシステム統合
Geminiモデルは競争力のある価格設定と、強化された推論のための思考モードなどのユニークな機能を備えた、強力な多言語機能を提供します。
利用可能なモデル
- gemini-2.5-pro (思考機能付き最新フラッグシップ)
- gemini-2.5-flash (高速、思考機能サポート付き)
- gemini-2.5-flash-lite (軽量バリアント)
- gemini-2.0-flash および gemini-2.0-flash-lite
- gemini-1.5-pro および gemini-1.5-flash

設定オプション
- APIキー: あなたのGoogle AI APIキー (必須)
- ベースURL: Gemini APIエンドポイント
- モデル: Geminiモデルファミリーから選択
- 温度: 0.0-2.0 (0.3を推奨)
- 最大出力トークン数: 1-8,192トークン
- リクエストタイムアウト: 5-300秒
- 思考を有効化: 2.5モデル用の強化推論を有効化
- 思考予算: 思考トークンの割り当てを制御
強み
- ✅ 強力な多言語サポート
- ✅ 競争力のある価格設定
- ✅ 高度な推論 (思考モード)
- ✅ Googleエコシステム統合
- ✅ 定期的なモデル更新
考慮点
- 🧠 思考モードはトークン使用量を増加させる
- 📏 モデルによる可変トークン制限
- 🌐 インターネット接続が必要
適切なプロバイダーの選択
| プロバイダー | 最適な用途 | 品質 | コスト | セットアップ | プライバシー |
|---|---|---|---|---|---|
| Ollama | プライバシー/オフライン | 可変* | 無料 | 高度 | ローカル |
| OpenAI | 最高品質 | ⭐⭐⭐⭐⭐ | 💰💰💰 | 簡単 | クラウド |
| Claude | クリエイティブコンテンツ | ⭐⭐⭐⭐⭐ | 💰💰💰💰 | 簡単 | クラウド |
| DeepSeek | 予算重視プロジェクト | ⭐⭐⭐⭐ | 💰 | 簡単 | クラウド |
| Gemini | 多言語 | ⭐⭐⭐⭐ | 💰 | 簡単 | クラウド |
*Ollamaの品質は使用するローカルモデルによって大きく異なります - 最新のローカルモデルの中にはクラウドプロバイダーに匹敵または超えるものもあります。
プロバイダー設定のヒント
すべてのクラウドプロバイダー向け:
- APIキーは安全に保管し、バージョン管理にコミットしないでください
- 一貫した翻訳のために控えめな温度設定 (0.3) から始めてください
- APIの使用状況とコストを監視してください
- 大規模な翻訳実行前に小さなバッチでテストしてください
Ollama向け:
- 十分なRAMを確保してください (大規模モデルには8GB以上を推奨)
- より良いモデル読み込みパフォーマンスのためにSSDストレージを使用してください
- 高速な推論のためにGPUアクセラレーションを検討してください
- 本番翻訳に依存する前にローカルでテストしてください