Zum Hauptinhalt springen

Übersetzungsanbieter

Der AI Localization Automator unterstützt fünf verschiedene KI-Anbieter, jeder mit einzigartigen Stärken und Konfigurationsoptionen. Wählen Sie den Anbieter, der am besten zu den Anforderungen, dem Budget und den Qualitätsanforderungen Ihres Projekts passt.

Ollama (Lokale KI)

Am besten geeignet für: Datenschutzsensible Projekte, Offline-Übersetzung, unbegrenzte Nutzung

Ollama führt KI-Modelle lokal auf Ihrem Rechner aus und bietet vollständige Privatsphäre und Kontrolle ohne API-Kosten oder Internetanforderungen.

  • translategemma:12b (Spezialisiertes Übersetzungsmodell basierend auf Gemma 3)
  • llama3.2 (Empfohlen für allgemeine Zwecke)
  • mistral (Effiziente Alternative)
  • codellama (Code-bewusste Übersetzungen)
  • Und viele weitere Community-Modelle

Konfigurationsoptionen

  • Basis-URL: Lokaler Ollama-Server (Standard: http://localhost:11434)
  • Modell: Name des lokal installierten Modells (erforderlich)
  • Chat-API verwenden: Für bessere Konversationsverarbeitung aktivieren
  • Temperatur: 0,0-2,0 (0,3 empfohlen)
  • Maximale Tokens: 1-8.192 Tokens
  • Kontextgröße: 512-32.768 Tokens
  • Anfrage-Timeout: 10-300 Sekunden (lokale Modelle können langsamer sein)
  • Streaming aktivieren: Für Echtzeit-Antwortverarbeitung

Stärken

  • ✅ Vollständige Privatsphäre (keine Daten verlassen Ihren Rechner)
  • ✅ Keine API-Kosten oder Nutzungslimits
  • ✅ Funktioniert offline
  • ✅ Vollständige Kontrolle über Modellparameter
  • ✅ Große Auswahl an Community-Modellen
  • ✅ Kein Vendor-Lock-in

Überlegungen

  • 💻 Erfordert lokale Einrichtung und leistungsfähige Hardware
  • ⚡ Allgemein langsamer als Cloud-Anbieter
  • 🔧 Technischere Einrichtung erforderlich
  • 📊 Übersetzungsqualität variiert stark je nach Modell (einige können Cloud-Anbieter übertreffen)
  • 💾 Großer Speicherbedarf für Modelle

Ollama einrichten

  1. Ollama installieren: Laden Sie es von ollama.ai herunter und installieren Sie es auf Ihrem System
  2. Modelle herunterladen: Verwenden Sie ollama pull translategemma:12b, um Ihr gewähltes Modell herunterzuladen
  3. Server starten: Ollama läuft automatisch oder starten Sie mit ollama serve
  4. Plugin konfigurieren: Legen Sie Basis-URL und Modellname in den Plugin-Einstellungen fest
  5. Verbindung testen: Das Plugin überprüft die Konnektivität, wenn Sie die Konfiguration anwenden

OpenAI

Am besten geeignet für: Höchste allgemeine Übersetzungsqualität, umfangreiche Modellauswahl

OpenAI bietet branchenführende Sprachmodelle über ihre Chat Completions API, einschließlich der neuesten GPT-Modelle, Reasoning-Modelle und websearch-fähigen Modelle.

Verfügbare Modelle

GPT-5 Familie (Flaggschiff-Modelle)

  • gpt-5, gpt-5-mini, gpt-5-nano
  • gpt-5.1, gpt-5.2, gpt-5.3-chat-latest
  • gpt-5.4, gpt-5.4-mini, gpt-5.4-nano

GPT-4.1 Familie (Hochleistung)

  • gpt-4.1, gpt-4.1-mini, gpt-4.1-nano

GPT-4o Familie (Multimodal)

  • gpt-4o, gpt-4o-mini, chatgpt-4o-latest

O-Serie (Reasoning-Modelle — Temperatur/top_p nicht unterstützt)

  • o1, o1-pro, o3, o3-mini, o4-mini

Web Search Modelle (Temperatur/top_p nicht unterstützt)

  • gpt-5-search-api, gpt-4o-search-preview, gpt-4o-mini-search-preview

Legacy / Vorschau

  • gpt-4.5-preview, gpt-4, gpt-4-32k, gpt-4-turbo, gpt-3.5-turbo, gpt-3.5-turbo-16k

Konfigurationsoptionen

  • API-Schlüssel: Ihr OpenAI API-Schlüssel (erforderlich)
  • Basis-URL: API-Endpunkt (Standard: https://api.openai.com/v1/chat/completions)
  • Modell: Wählen Sie aus den oben aufgeführten verfügbaren Modellen
  • Temperatur verwenden: Temperaturparameter ein-/ausschalten (wird automatisch für O-Serie Reasoning- und Web Search-Modelle ignoriert)
  • Temperatur: 0,0–2,0 (0,3 empfohlen für Übersetzungskonsistenz)
  • Top P: 0,0–1,0 Nucleus-Sampling-Parameter (wird für O-Serie Reasoning- und Web Search-Modelle ignoriert)
  • Maximale Completion-Tokens: 1–128.000 Tokens (enthält sowohl Ausgabe- als auch Reasoning-Tokens)
  • Anfrage-Timeout: 5–300 Sekunden

Stärken

  • ✅ Konsistent hochwertige Übersetzungen
  • ✅ Hervorragendes Kontextverständnis
  • ✅ Starke Formatierungserhaltung
  • ✅ Breite Sprachunterstützung
  • ✅ Zuverlässige API-Verfügbarkeit

Überlegungen

  • 💰 Höhere Kosten pro Anfrage
  • 🌐 Erfordert Internetverbindung
  • ⏱️ Nutzungslimits basierend auf Tier

Anthropic Claude

Am besten geeignet für: Nuancierte Übersetzungen, kreative Inhalte, sicherheitsfokussierte Anwendungen

Claude-Modelle zeichnen sich durch das Verständnis von Kontext und Nuancen aus, was sie ideal für erzähllastige Spiele und komplexe Lokalisierungsszenarien macht.

Verfügbare Modelle

Claude 4.6 Familie (Neueste)

  • claude-opus-4-6, claude-sonnet-4-6

Claude 4.5 Familie

  • claude-haiku-4-5 (Schnell und effizient)
  • claude-sonnet-4-5, claude-opus-4-5

Claude 4.x Familie

  • claude-sonnet-4-0, claude-opus-4-1, claude-opus-4-0

Claude 3.x Familie (Legacy)

  • claude-3-7-sonnet-latest, claude-3-5-haiku-latest, claude-3-opus-latest

Konfigurationsoptionen

  • API-Schlüssel: Ihr Anthropic API-Schlüssel (erforderlich)
  • Basis-URL: Claude API-Endpunkt
  • Modell: Aus der Claude-Modellfamilie auswählen
  • Temperatur: 0,0–1,0 (0,3 empfohlen)
  • Top K: Top-K-Sampling-Parameter (0 = nicht gesetzt)
  • Maximale Tokens: 1–64.000 Tokens
  • Anfrage-Timeout: 5–300 Sekunden
  • Anthropic Version: API-Versions-Header

Stärken

  • ✅ Außergewöhnliches Kontextbewusstsein
  • ✅ Großartig für kreative/erzählerische Inhalte
  • ✅ Starke Sicherheitsfunktionen
  • ✅ Detaillierte Reasoning-Fähigkeiten (erweitertes Denken bei 3.7+ Modellen)
  • ✅ Hervorragende Befolgung von Anweisungen

Überlegungen

  • 💰 Premium-Preismodell
  • 🌐 Internetverbindung erforderlich
  • 📏 Token-Limits variieren je nach Modell

DeepSeek

Am besten geeignet für: Kosteneffektive Übersetzung, hohen Durchsatz, budgetbewusste Projekte

DeepSeek bietet wettbewerbsfähige Übersetzungsqualität zu einem Bruchteil der Kosten anderer Anbieter, was es ideal für groß angelegte Lokalisierungsprojekte macht.

Verfügbare Modelle

  • deepseek-chat (Allgemeiner Zweck, empfohlen)
  • deepseek-reasoner (Erweiterte Reasoning-Fähigkeiten)

Konfigurationsoptionen

  • API-Schlüssel: Ihr DeepSeek API-Schlüssel (erforderlich)
  • Basis-URL: DeepSeek API-Endpunkt
  • Modell: Wählen Sie zwischen Chat- und Reasoner-Modellen
  • Temperatur: 0,0-2,0 (0,3 empfohlen)
  • Maximale Tokens: 1-8.192 Tokens
  • Anfrage-Timeout: 5-300 Sekunden

Stärken

  • ✅ Sehr kosteneffektiv
  • ✅ Gute Übersetzungsqualität
  • ✅ Schnelle Antwortzeiten
  • ✅ Einfache Konfiguration
  • ✅ Hohe Rate-Limits

Überlegungen

  • 📏 Niedrigere Token-Limits
  • 🆕 Neuerer Anbieter (weniger Erfahrungswerte)
  • 🌐 Erfordert Internetverbindung

Google Gemini

Am besten geeignet für: Mehrsprachige Projekte, kosteneffektive Übersetzung, Google-Ökosystem-Integration

Gemini-Modelle bieten starke mehrsprachige Fähigkeiten mit wettbewerbsfähigen Preisen und einzigartigen Funktionen wie den Denkmodus für erweitertes Reasoning.

Verfügbare Modelle

Gemini 3.x Familie (Vorschau)

  • gemini-3.1-pro-preview, gemini-3-pro-preview, gemini-3-flash-preview

Gemini 2.5 Familie (Mit Denkunterstützung)

  • gemini-2.5-pro (Flaggschiff mit Denken)
  • gemini-2.5-flash (Schnell, mit Denkunterstützung)
  • gemini-2.5-flash-lite (Leichtgewichtige Variante)

Gemini 2.0 Familie

  • gemini-2.0-flash, gemini-2.0-flash-lite

Neueste Aliase

  • gemini-flash-latest, gemini-flash-lite-latest

Konfigurationsoptionen

  • API-Schlüssel: Ihr Google AI API-Schlüssel (erforderlich)
  • Basis-URL: Gemini API-Endpunkt
  • Modell: Aus der Gemini-Modellfamilie auswählen
  • Temperatur: 0,0–2,0 (0,3 empfohlen)
  • Maximale Ausgabe-Tokens: 1–8.192 Tokens
  • Anfrage-Timeout: 5–300 Sekunden
  • Denken aktivieren: Erweitertes Reasoning für 2.5+ Modelle aktivieren
  • Denk-Budget: Denk-Token-Zuweisung steuern (0 = kein Denken)

Stärken

  • ✅ Starke mehrsprachige Unterstützung
  • ✅ Wettbewerbsfähige Preise
  • ✅ Fortgeschrittenes Reasoning (Denkmodus)
  • ✅ Google-Ökosystem-Integration
  • ✅ Regelmäßige Modell-Updates mit Vorschauzugang zu neuesten Modellen

Überlegungen

  • 🧠 Denkmodus erhöht den Token-Verbrauch
  • 📏 Variable Token-Limits je nach Modell
  • 🌐 Internetverbindung erforderlich

Den richtigen Anbieter wählen

AnbieterAm besten geeignet fürQualitätKostenEinrichtungPrivatsphäre
OllamaPrivatsphäre/OfflineVariabel*KostenlosFortgeschrittenLokal
OpenAIHöchste Qualität⭐⭐⭐⭐⭐💰💰💰EinfachCloud
ClaudeKreative Inhalte⭐⭐⭐⭐⭐💰💰💰💰EinfachCloud
DeepSeekBudget-Projekte⭐⭐⭐⭐💰EinfachCloud
GeminiMehrsprachig⭐⭐⭐⭐💰EinfachCloud

*Die Qualität bei Ollama variiert stark basierend auf dem verwendeten lokalen Modell - einige moderne lokale Modelle können Cloud-Anbieter erreichen oder übertreffen.

Anbieter-Konfigurationstipps

Für alle Cloud-Anbieter:

  • Speichern Sie API-Schlüssel sicher und committen Sie sie nicht in die Versionskontrolle
  • Beginnen Sie mit konservativen Temperatureinstellungen (0,3) für konsistente Übersetzungen
  • Überwachen Sie Ihre API-Nutzung und Kosten
  • Testen Sie mit kleinen Stapeln vor großen Übersetzungsläufen

Für Ollama:

  • Stellen Sie ausreichend RAM sicher (8GB+ empfohlen für größere Modelle)
  • Verwenden Sie SSD-Speicher für bessere Modellladeleistung
  • Erwägen Sie GPU-Beschleunigung für schnellere Inferenz
  • Testen Sie lokal, bevor Sie sich für Produktionsübersetzungen darauf verlassen