Zum Hauptinhalt springen

Übersetzungsanbieter

Der AI Localization Automator unterstützt fünf verschiedene KI-Anbieter, jeder mit einzigartigen Stärken und Konfigurationsoptionen. Wählen Sie den Anbieter, der am besten zu den Anforderungen, dem Budget und den Qualitätsanforderungen Ihres Projekts passt.

Ollama (Lokale KI)

Am besten geeignet für: Datenschutzsensible Projekte, Offline-Übersetzung, unbegrenzte Nutzung

Ollama führt KI-Modelle lokal auf Ihrem Rechner aus und bietet vollständige Privatsphäre und Kontrolle ohne API-Kosten oder Internetanforderungen.

  • translategemma:12b (Spezialisiertes Übersetzungsmodell basierend auf Gemma 3)
  • llama3.2 (Empfohlen für allgemeine Zwecke)
  • mistral (Effiziente Alternative)
  • codellama (Code-bewusste Übersetzungen)
  • Und viele weitere Community-Modelle

Konfigurationsoptionen

  • Basis-URL: Lokaler Ollama-Server (Standard: http://localhost:11434)
  • Modell: Name des lokal installierten Modells (erforderlich)
  • Chat-API verwenden: Für bessere Konversationsverarbeitung aktivieren
  • Temperatur: 0,0-2,0 (0,3 empfohlen)
  • Maximale Tokens: 1-8.192 Tokens
  • Kontextgröße: 512-32.768 Tokens
  • Anfrage-Timeout: 10-300 Sekunden (lokale Modelle können langsamer sein)
  • Streaming aktivieren: Für Echtzeit-Antwortverarbeitung

Stärken

  • ✅ Vollständige Privatsphäre (keine Daten verlassen Ihren Rechner)
  • ✅ Keine API-Kosten oder Nutzungslimits
  • ✅ Funktioniert offline
  • ✅ Volle Kontrolle über Modellparameter
  • ✅ Große Auswahl an Community-Modellen
  • ✅ Kein Vendor-Lock-in

Zu beachten

  • 💻 Erfordert lokale Einrichtung und leistungsfähige Hardware
  • ⚡ Allgemein langsamer als Cloud-Anbieter
  • 🔧 Technischere Einrichtung erforderlich
  • 📊 Übersetzungsqualität variiert stark je nach Modell (einige können Cloud-Anbieter übertreffen)
  • 💾 Großer Speicherbedarf für Modelle

Ollama einrichten

  1. Ollama installieren: Laden Sie es von ollama.ai herunter und installieren Sie es auf Ihrem System
  2. Modelle herunterladen: Verwenden Sie ollama pull translategemma:12b, um Ihr gewähltes Modell herunterzuladen
  3. Server starten: Ollama läuft automatisch oder starten Sie mit ollama serve
  4. Plugin konfigurieren: Basis-URL und Modellname in den Plugin-Einstellungen festlegen
  5. Verbindung testen: Das Plugin überprüft die Konnektivität, wenn Sie die Konfiguration anwenden

OpenAI

Am besten geeignet für: Höchste allgemeine Übersetzungsqualität, umfangreiche Modellauswahl

OpenAI bietet branchenführende Sprachmodelle über ihre API an, einschließlich der neuesten GPT-Modelle und des neuen Responses API-Formats.

Verfügbare Modelle

  • gpt-5 (Neuestes Flaggschiffmodell)
  • gpt-5-mini (Kleinere, schnellere Variante)
  • gpt-4.1 und gpt-4.1-mini
  • gpt-4o und gpt-4o-mini (Optimierte Modelle)
  • o3 und o3-mini (Fortgeschrittenes Reasoning)
  • o1 und o1-mini (Vorherige Generation)

Konfigurationsoptionen

  • API-Schlüssel: Ihr OpenAI-API-Schlüssel (erforderlich)
  • Basis-URL: API-Endpunkt (Standard: OpenAIs Server)
  • Modell: Wählen Sie aus verfügbaren GPT-Modellen
  • Temperatur: 0,0-2,0 (0,3 empfohlen für Übersetzungskonsistenz)
  • Maximale Ausgabe-Tokens: 1-128.000 Tokens
  • Anfrage-Timeout: 5-300 Sekunden
  • Ausführlichkeit: Detaillierungsgrad der Antwort steuern

Stärken

  • ✅ Konsistent hochwertige Übersetzungen
  • ✅ Hervorragendes Kontextverständnis
  • ✅ Starke Formatierungserhaltung
  • ✅ Breite Sprachunterstützung
  • ✅ Zuverlässige API-Verfügbarkeit

Zu beachten

  • 💰 Höhere Kosten pro Anfrage
  • 🌐 Erfordert Internetverbindung
  • ⏱️ Nutzungslimits basierend auf Tarif

Anthropic Claude

Am besten geeignet für: Nuancierte Übersetzungen, kreative Inhalte, sicherheitsfokussierte Anwendungen

Claude-Modelle zeichnen sich durch das Verständnis von Kontext und Nuancen aus, was sie ideal für erzählerisch geprägte Spiele und komplexe Lokalisierungsszenarien macht.

Verfügbare Modelle

  • claude-opus-4-1-20250805 (Neuestes Flaggschiff)
  • claude-opus-4-20250514
  • claude-sonnet-4-20250514
  • claude-3-7-sonnet-20250219
  • claude-3-5-haiku-20241022 (Schnell und effizient)
  • claude-3-haiku-20240307

Konfigurationsoptionen

  • API-Schlüssel: Ihr Anthropic-API-Schlüssel (erforderlich)
  • Basis-URL: Claude-API-Endpunkt
  • Modell: Aus der Claude-Modellfamilie auswählen
  • Temperatur: 0,0-1,0 (0,3 empfohlen)
  • Maximale Tokens: 1-64.000 Tokens
  • Anfrage-Timeout: 5-300 Sekunden
  • Anthropic-Version: API-Versions-Header

Stärken

  • ✅ Außergewöhnliches Kontextbewusstsein
  • ✅ Großartig für kreative/erzählerische Inhalte
  • ✅ Starke Sicherheitsfunktionen
  • ✅ Detaillierte Reasoning-Fähigkeiten
  • ✅ Hervorragende Befolgung von Anweisungen

Zu beachten

  • 💰 Premium-Preismodell
  • 🌐 Internetverbindung erforderlich
  • 📏 Token-Limits variieren je nach Modell

DeepSeek

Am besten geeignet für: Kosteneffektive Übersetzung, hohen Durchsatz, budgetbewusste Projekte

DeepSeek bietet wettbewerbsfähige Übersetzungsqualität zu einem Bruchteil der Kosten anderer Anbieter, was es ideal für groß angelegte Lokalisierungsprojekte macht.

Verfügbare Modelle

  • deepseek-chat (Allgemeiner Zweck, empfohlen)
  • deepseek-reasoner (Erweiterte Reasoning-Fähigkeiten)

Konfigurationsoptionen

  • API-Schlüssel: Ihr DeepSeek-API-Schlüssel (erforderlich)
  • Basis-URL: DeepSeek-API-Endpunkt
  • Modell: Wählen Sie zwischen Chat- und Reasoner-Modellen
  • Temperatur: 0,0-2,0 (0,3 empfohlen)
  • Maximale Tokens: 1-8.192 Tokens
  • Anfrage-Timeout: 5-300 Sekunden

Stärken

  • ✅ Sehr kosteneffektiv
  • ✅ Gute Übersetzungsqualität
  • ✅ Schnelle Antwortzeiten
  • ✅ Einfache Konfiguration
  • ✅ Hohe Rate-Limits

Zu beachten

  • 📏 Niedrigere Token-Limits
  • 🆕 Neuerer Anbieter (weniger Erfahrungswerte)
  • 🌐 Erfordert Internetverbindung

Google Gemini

Am besten geeignet für: Mehrsprachige Projekte, kosteneffektive Übersetzung, Google-Ökosystem-Integration

Gemini-Modelle bieten starke mehrsprachige Fähigkeiten mit wettbewerbsfähigen Preisen und einzigartigen Funktionen wie den Denkmodus für erweitertes Reasoning.

Verfügbare Modelle

  • gemini-2.5-pro (Neuestes Flaggschiff mit Thinking)
  • gemini-2.5-flash (Schnell, mit Thinking-Unterstützung)
  • gemini-2.5-flash-lite (Leichtgewichtige Variante)
  • gemini-2.0-flash und gemini-2.0-flash-lite
  • gemini-1.5-pro und gemini-1.5-flash

Konfigurationsoptionen

  • API-Schlüssel: Ihr Google AI-API-Schlüssel (erforderlich)
  • Basis-URL: Gemini-API-Endpunkt
  • Modell: Aus der Gemini-Modellfamilie auswählen
  • Temperatur: 0,0-2,0 (0,3 empfohlen)
  • Maximale Ausgabe-Tokens: 1-8.192 Tokens
  • Anfrage-Timeout: 5-300 Sekunden
  • Denkmodus aktivieren: Erweitertes Reasoning für 2.5-Modelle aktivieren
  • Denkbudget: Zuweisung von Thinking-Tokens steuern

Stärken

  • ✅ Starke mehrsprachige Unterstützung
  • ✅ Wettbewerbsfähige Preise
  • ✅ Fortgeschrittenes Reasoning (Denkmodus)
  • ✅ Google-Ökosystem-Integration
  • ✅ Regelmäßige Modellaktualisierungen

Zu beachten

  • 🧠 Denkmodus erhöht den Token-Verbrauch
  • 📏 Variable Token-Limits je nach Modell
  • 🌐 Internetverbindung erforderlich

Den richtigen Anbieter wählen

AnbieterAm besten geeignet fürQualitätKostenEinrichtungPrivatsphäre
OllamaPrivatsphäre/OfflineVariabel*KostenlosFortgeschrittenLokal
OpenAIHöchste Qualität⭐⭐⭐⭐⭐💰💰💰EinfachCloud
ClaudeKreative Inhalte⭐⭐⭐⭐⭐💰💰💰💰EinfachCloud
DeepSeekBudgetprojekte⭐⭐⭐⭐💰EinfachCloud
GeminiMehrsprachig⭐⭐⭐⭐💰EinfachCloud

*Die Qualität bei Ollama variiert stark basierend auf dem verwendeten lokalen Modell - einige moderne lokale Modelle können Cloud-Anbieter erreichen oder übertreffen.

Tipps zur Anbieterkonfiguration

Für alle Cloud-Anbieter:

  • Speichern Sie API-Schlüssel sicher und committen Sie sie nicht in die Versionskontrolle
  • Beginnen Sie mit konservativen Temperatureinstellungen (0,3) für konsistente Übersetzungen
  • Überwachen Sie Ihre API-Nutzung und Kosten
  • Testen Sie mit kleinen Stapeln, bevor Sie große Übersetzungsläufe starten

Für Ollama:

  • Stellen Sie ausreichend RAM sicher (8GB+ für größere Modelle empfohlen)
  • Verwenden Sie SSD-Speicher für bessere Modellladeleistung
  • Erwägen Sie GPU-Beschleunigung für schnellere Inferenz
  • Testen Sie lokal, bevor Sie sich für Produktionsübersetzungen darauf verlassen