メインコンテンツまでスキップ

翻訳プロバイダー

AI Localization Automator は、それぞれに独自の強みと設定オプションを持つ5つの異なるAIプロバイダーをサポートしています。プロジェクトのニーズ、予算、品質要件に最適なプロバイダーを選択してください。

Ollama (ローカルAI)

最適な用途: プライバシーに敏感なプロジェクト、オフライン翻訳、無制限の使用

OllamaはAIモデルをマシン上でローカルに実行し、APIコストやインターネット接続を必要とせず、完全なプライバシーと制御を提供します。

  • llama3.2 (推奨される汎用モデル)
  • mistral (効率的な代替モデル)
  • codellama (コードを意識した翻訳)
  • その他多くのコミュニティモデル

設定オプション

  • ベースURL: ローカルのOllamaサーバー (デフォルト: http://localhost:11434)
  • モデル: ローカルにインストールされたモデルの名前 (必須)
  • チャットAPIを使用: より良い会話処理のために有効化
  • 温度 (Temperature): 0.0-2.0 (0.3推奨)
  • 最大トークン数 (Max Tokens): 1-8,192トークン
  • コンテキストサイズ (Context Size): 512-32,768トークン
  • リクエストタイムアウト (Request Timeout): 10-300秒 (ローカルモデルは遅くなる可能性あり)
  • ストリーミングを有効化 (Enable Streaming): リアルタイムのレスポンス処理用

強み

  • ✅ 完全なプライバシー (データがマシンから流出しない)
  • ✅ APIコストや使用制限なし
  • ✅ オフラインで動作
  • ✅ モデルパラメータの完全な制御
  • ✅ 多種多様なコミュニティモデル
  • ✅ ベンダーロックインなし

考慮事項

  • 💻 ローカルセットアップと十分なハードウェアが必要
  • ⚡ 一般的にクラウドプロバイダーより低速
  • 🔧 より技術的なセットアップが必要
  • 📊 翻訳品質はモデルによって大きく異なる (クラウドプロバイダーを超えるものもある)
  • 💾 モデル用の大容量ストレージが必要

Ollamaのセットアップ

  1. Ollamaのインストール: ollama.ai からダウンロードし、システムにインストール
  2. モデルのダウンロード: ollama pull llama3.2 を使用して選択したモデルをダウンロード
  3. サーバーの起動: Ollamaは自動的に実行されるか、ollama serve で起動
  4. プラグインの設定: プラグイン設定でベースURLとモデル名を設定
  5. 接続テスト: 設定を適用すると、プラグインが接続を検証します

OpenAI

最適な用途: 全体的に最高の翻訳品質、豊富なモデル選択肢

OpenAIは、最新のGPTモデルや新しいResponses APIフォーマットを含む、業界をリードする言語モデルをAPIを通じて提供します。

利用可能なモデル

  • gpt-5 (最新のフラグシップモデル)
  • gpt-5-mini (より小型で高速なバリアント)
  • gpt-4.1 および gpt-4.1-mini
  • gpt-4o および gpt-4o-mini (最適化されたモデル)
  • o3 および o3-mini (高度な推論)
  • o1 および o1-mini (前世代)

設定オプション

  • APIキー: あなたのOpenAI APIキー (必須)
  • ベースURL: APIエンドポイント (デフォルト: OpenAIのサーバー)
  • モデル: 利用可能なGPTモデルから選択
  • Temperature (温度): 0.0-2.0 (翻訳の一貫性には0.3を推奨)
  • 最大出力トークン数: 1-128,000トークン
  • リクエストタイムアウト: 5-300秒
  • 詳細度: 応答の詳細レベルを制御

強み

  • ✅ 一貫して高品質な翻訳
  • ✅ 優れた文脈理解
  • ✅ 強力なフォーマット維持
  • ✅ 幅広い言語サポート
  • ✅ 信頼性の高いAPI稼働時間

考慮事項

  • 💰 リクエストあたりのコストが高い
  • 🌐 インターネット接続が必要
  • ⏱️ 利用枠に基づく使用制限

Anthropic Claude

最適な用途: ニュアンスのある翻訳、創造的なコンテンツ、安全性を重視したアプリケーション

Claudeモデルは文脈とニュアンスの理解に優れており、物語性の強いゲームや複雑なローカライゼーションシナリオに最適です。

利用可能なモデル

  • claude-opus-4-1-20250805 (最新のフラグシップモデル)
  • claude-opus-4-20250514
  • claude-sonnet-4-20250514
  • claude-3-7-sonnet-20250219
  • claude-3-5-haiku-20241022 (高速かつ効率的)
  • claude-3-haiku-20240307

設定オプション

  • APIキー: あなたのAnthropic APIキー (必須)
  • ベースURL: Claude APIエンドポイント
  • モデル: Claudeモデルファミリーから選択
  • Temperature (温度): 0.0-1.0 (0.3を推奨)
  • 最大トークン数: 1-64,000トークン
  • リクエストタイムアウト: 5-300秒
  • Anthropicバージョン: APIバージョンヘッダー

強み

  • ✅ 卓越した文脈認識
  • ✅ 創造的/物語的コンテンツに最適
  • ✅ 強力な安全機能
  • ✅ 詳細な推論能力
  • ✅ 優れた指示追従性

考慮事項

  • 💰 プレミアム価格設定
  • 🌐 インターネット接続が必要
  • 📏 モデルごとにトークン制限が異なる

DeepSeek

最適な用途: コスト効率の良い翻訳、高スループット、予算を意識したプロジェクト

DeepSeekは他のプロバイダーの数分の一のコストで競争力のある翻訳品質を提供し、大規模なローカライゼーションプロジェクトに最適です。

利用可能なモデル

  • deepseek-chat (汎用、推奨)
  • deepseek-reasoner (強化された推論能力)

設定オプション

  • APIキー: あなたのDeepSeek APIキー (必須)
  • ベースURL: DeepSeek APIエンドポイント
  • モデル: チャットモデルと推論モデルから選択
  • Temperature (温度): 0.0-2.0 (0.3を推奨)
  • 最大トークン数: 1-8,192トークン
  • リクエストタイムアウト: 5-300秒

強み

  • ✅ 非常にコスト効率が良い
  • ✅ 良好な翻訳品質
  • ✅ 高速な応答時間
  • ✅ シンプルな設定
  • ✅ 高いレート制限

考慮事項

  • 📏 低いトークン制限
  • 🆕 新しいプロバイダー(実績が少ない)
  • 🌐 インターネット接続が必要

Google Gemini

最適な用途: 多言語プロジェクト、コスト効率の良い翻訳、Google エコシステムとの統合

Gemini モデルは、強力な多言語対応能力、競争力のある価格設定、強化された推論のための思考モードなどのユニークな機能を提供します。

利用可能なモデル

  • gemini-2.5-pro (思考機能を備えた最新のフラグシップモデル)
  • gemini-2.5-flash (高速、思考機能サポート)
  • gemini-2.5-flash-lite (軽量版)
  • gemini-2.0-flash および gemini-2.0-flash-lite
  • gemini-1.5-pro および gemini-1.5-flash

設定オプション

  • API キー: Google AI API キー (必須)
  • ベース URL: Gemini API エンドポイント
  • モデル: Gemini モデルファミリーから選択
  • Temperature (温度): 0.0-2.0 (0.3 推奨)
  • 最大出力トークン数: 1-8,192 トークン
  • リクエストタイムアウト: 5-300 秒
  • 思考モードを有効化: 2.5 モデルで強化された推論をアクティブ化
  • 思考予算: 思考トークンの割り当てを制御

強み

  • ✅ 強力な多言語サポート
  • ✅ 競争力のある価格設定
  • ✅ 高度な推論 (思考モード)
  • ✅ Google エコシステムとの統合
  • ✅ 定期的なモデル更新

考慮事項

  • 🧠 思考モードはトークン使用量を増加させる
  • 📏 モデルごとに異なるトークン制限
  • 🌐 インターネット接続が必要

適切なプロバイダーの選択

プロバイダー最適な用途品質コストセットアッププライバシー
Ollamaプライバシー/オフライン変動*無料上級者向けローカル
OpenAI最高品質⭐⭐⭐⭐⭐💰💰💰簡単クラウド
Claude創造的なコンテンツ⭐⭐⭐⭐⭐💰💰💰💰簡単クラウド
DeepSeek予算重視のプロジェクト⭐⭐⭐⭐💰簡単クラウド
Gemini多言語⭐⭐⭐⭐💰簡単クラウド

*Ollama の品質は、使用するローカルモデルによって大きく異なります。最新のローカルモデルの中には、クラウドプロバイダーと同等かそれ以上の性能を発揮するものもあります。

プロバイダー設定のヒント

すべてのクラウドプロバイダー向け:

  • API キーは安全に保管し、バージョン管理システムにコミットしないでください
  • 一貫性のある翻訳を得るために、控えめな温度設定 (0.3) から始めてください
  • API の使用量とコストを監視してください
  • 大規模な翻訳実行の前に、小さなバッチでテストしてください

Ollama 向け:

  • 十分な RAM を確保してください (大規模モデルには 8GB 以上を推奨)
  • モデルの読み込みパフォーマンス向上のために SSD ストレージを使用してください
  • 高速な推論のために GPU アクセラレーションを検討してください
  • 本番環境の翻訳に依存する前に、ローカルでテストしてください