メインコンテンツまでスキップ

翻訳プロバイダー

AI Localization Automator は、それぞれ独自の強みと設定オプションを持つ5つの異なるAIプロバイダーをサポートしています。プロジェクトのニーズ、予算、品質要件に最適なプロバイダーを選択してください。

Ollama (ローカルAI)

最適な用途: プライバシーに敏感なプロジェクト、オフライン翻訳、無制限の使用

OllamaはAIモデルをマシン上でローカルに実行し、APIコストやインターネット接続を必要とせず、完全なプライバシーと制御を提供します。

  • translategemma:12b (Gemma 3ベースの専門翻訳モデル)
  • llama3.2 (推奨汎用モデル)
  • mistral (効率的な代替モデル)
  • codellama (コードを意識した翻訳)
  • その他多くのコミュニティモデル

設定オプション

  • ベースURL: ローカルのOllamaサーバー (デフォルト: http://localhost:11434)
  • モデル: ローカルにインストールされたモデルの名前 (必須)
  • チャットAPIを使用: より良い会話処理のために有効化
  • 温度: 0.0-2.0 (翻訳の一貫性のために0.3を推奨)
  • 最大トークン数: 1-8,192トークン
  • コンテキストサイズ: 512-32,768トークン
  • リクエストタイムアウト: 10-300秒 (ローカルモデルは遅くなる可能性あり)
  • ストリーミングを有効化: リアルタイムのレスポンス処理用

強み

  • ✅ 完全なプライバシー (データがマシンを離れない)
  • ✅ APIコストや使用制限なし
  • ✅ オフラインで動作
  • ✅ モデルパラメータの完全な制御
  • ✅ 多様なコミュニティモデル
  • ✅ ベンダーロックインなし

考慮点

  • 💻 ローカルセットアップと十分なハードウェアが必要
  • ⚡ 一般的にクラウドプロバイダーより遅い
  • 🔧 より技術的なセットアップが必要
  • 📊 翻訳品質はモデルによって大きく異なる (クラウドプロバイダーを超えるものもある)
  • 💾 モデルに大きなストレージ容量が必要

Ollamaのセットアップ

  1. Ollamaのインストール: ollama.ai からダウンロードし、システムにインストール
  2. モデルのダウンロード: ollama pull translategemma:12b を使用して選択したモデルをダウンロード
  3. サーバーの起動: Ollamaは自動的に実行されるか、ollama serve で起動
  4. プラグインの設定: プラグイン設定でベースURLとモデル名を設定
  5. 接続テスト: 設定を適用するとプラグインが接続性を検証

OpenAI

最適な用途: 全体的に最高の翻訳品質、豊富なモデル選択肢

OpenAIは、最新のGPTモデルや新しいResponses APIフォーマットを含む、業界をリードする言語モデルをAPIを通じて提供します。

利用可能なモデル

  • gpt-5 (最新のフラッグシップモデル)
  • gpt-5-mini (より小型で高速なバリアント)
  • gpt-4.1 および gpt-4.1-mini
  • gpt-4o および gpt-4o-mini (最適化モデル)
  • o3 および o3-mini (高度な推論)
  • o1 および o1-mini (前世代)

設定オプション

  • APIキー: あなたのOpenAI APIキー (必須)
  • ベースURL: APIエンドポイント (デフォルト: OpenAIのサーバー)
  • モデル: 利用可能なGPTモデルから選択
  • 温度: 0.0-2.0 (翻訳の一貫性のために0.3を推奨)
  • 最大出力トークン数: 1-128,000トークン
  • リクエストタイムアウト: 5-300秒
  • 詳細度: レスポンスの詳細レベルを制御

強み

  • ✅ 一貫して高品質な翻訳
  • ✅ 優れたコンテキスト理解
  • ✅ 強力なフォーマット保持
  • ✅ 幅広い言語サポート
  • ✅ 信頼性の高いAPI稼働時間

考慮点

  • 💰 リクエストあたりのコストが高い
  • 🌐 インターネット接続が必要
  • ⏱️ 階層に基づく使用制限

Anthropic Claude

最適な用途: ニュアンスのある翻訳、クリエイティブコンテンツ、安全性重視のアプリケーション

Claudeモデルはコンテキストとニュアンスの理解に優れており、物語性の強いゲームや複雑なローカライゼーションシナリオに最適です。

利用可能なモデル

  • claude-opus-4-1-20250805 (最新フラッグシップ)
  • claude-opus-4-20250514
  • claude-sonnet-4-20250514
  • claude-3-7-sonnet-20250219
  • claude-3-5-haiku-20241022 (高速で効率的)
  • claude-3-haiku-20240307

設定オプション

  • APIキー: あなたのAnthropic APIキー (必須)
  • ベースURL: Claude APIエンドポイント
  • モデル: Claudeモデルファミリーから選択
  • 温度: 0.0-1.0 (0.3を推奨)
  • 最大トークン数: 1-64,000トークン
  • リクエストタイムアウト: 5-300秒
  • Anthropicバージョン: APIバージョンヘッダー

強み

  • ✅ 卓越したコンテキスト認識
  • ✅ クリエイティブ/物語コンテンツに最適
  • ✅ 強力な安全機能
  • ✅ 詳細な推論能力
  • ✅ 優れた指示への従順性

考慮点

  • 💰 プレミアム価格モデル
  • 🌐 インターネット接続が必要
  • 📏 モデルによるトークン制限の違い

DeepSeek

最適な用途: コスト効率の良い翻訳、高スループット、予算重視のプロジェクト

DeepSeekは他のプロバイダーの数分の一のコストで競争力のある翻訳品質を提供し、大規模なローカライゼーションプロジェクトに最適です。

利用可能なモデル

  • deepseek-chat (汎用、推奨)
  • deepseek-reasoner (強化された推論能力)

設定オプション

  • APIキー: あなたのDeepSeek APIキー (必須)
  • ベースURL: DeepSeek APIエンドポイント
  • モデル: チャットモデルとリゾーナーモデルの間で選択
  • 温度: 0.0-2.0 (0.3を推奨)
  • 最大トークン数: 1-8,192トークン
  • リクエストタイムアウト: 5-300秒

強み

  • ✅ 非常にコスト効率が良い
  • ✅ 良好な翻訳品質
  • ✅ 高速な応答時間
  • ✅ シンプルな設定
  • ✅ 高いレート制限

考慮点

  • 📏 トークン制限が低い
  • 🆕 新しいプロバイダー (実績が少ない)
  • 🌐 インターネット接続が必要

Google Gemini

最適な用途: 多言語プロジェクト、コスト効率の良い翻訳、Googleエコシステム統合

Geminiモデルは競争力のある価格設定と、強化された推論のための思考モードなどのユニークな機能を備えた、強力な多言語機能を提供します。

利用可能なモデル

  • gemini-2.5-pro (思考機能付き最新フラッグシップ)
  • gemini-2.5-flash (高速、思考機能サポート付き)
  • gemini-2.5-flash-lite (軽量バリアント)
  • gemini-2.0-flash および gemini-2.0-flash-lite
  • gemini-1.5-pro および gemini-1.5-flash

設定オプション

  • APIキー: あなたのGoogle AI APIキー (必須)
  • ベースURL: Gemini APIエンドポイント
  • モデル: Geminiモデルファミリーから選択
  • 温度: 0.0-2.0 (0.3を推奨)
  • 最大出力トークン数: 1-8,192トークン
  • リクエストタイムアウト: 5-300秒
  • 思考を有効化: 2.5モデル用の強化推論を有効化
  • 思考予算: 思考トークンの割り当てを制御

強み

  • ✅ 強力な多言語サポート
  • ✅ 競争力のある価格設定
  • ✅ 高度な推論 (思考モード)
  • ✅ Googleエコシステム統合
  • ✅ 定期的なモデル更新

考慮点

  • 🧠 思考モードはトークン使用量を増加させる
  • 📏 モデルによる可変トークン制限
  • 🌐 インターネット接続が必要

適切なプロバイダーの選択

プロバイダー最適な用途品質コストセットアッププライバシー
Ollamaプライバシー/オフライン可変*無料高度ローカル
OpenAI最高品質⭐⭐⭐⭐⭐💰💰💰簡単クラウド
Claudeクリエイティブコンテンツ⭐⭐⭐⭐⭐💰💰💰💰簡単クラウド
DeepSeek予算重視プロジェクト⭐⭐⭐⭐💰簡単クラウド
Gemini多言語⭐⭐⭐⭐💰簡単クラウド

*Ollamaの品質は使用するローカルモデルによって大きく異なります - 最新のローカルモデルの中にはクラウドプロバイダーに匹敵または超えるものもあります。

プロバイダー設定のヒント

すべてのクラウドプロバイダー向け:

  • APIキーは安全に保管し、バージョン管理にコミットしないでください
  • 一貫した翻訳のために控えめな温度設定 (0.3) から始めてください
  • APIの使用状況とコストを監視してください
  • 大規模な翻訳実行前に小さなバッチでテストしてください

Ollama向け:

  • 十分なRAMを確保してください (大規模モデルには8GB以上を推奨)
  • より良いモデル読み込みパフォーマンスのためにSSDストレージを使用してください
  • 高速な推論のためにGPUアクセラレーションを検討してください
  • 本番翻訳に依存する前にローカルでテストしてください