Zum Hauptinhalt springen

Übersetzungsanbieter

Der AI Localization Automator unterstützt fünf verschiedene KI-Anbieter, jeder mit einzigartigen Stärken und Konfigurationsoptionen. Wählen Sie den Anbieter, der am besten zu den Anforderungen, dem Budget und den Qualitätsanforderungen Ihres Projekts passt.

Ollama (Lokale KI)

Am besten geeignet für: Datenschutzsensible Projekte, Offline-Übersetzung, unbegrenzte Nutzung

Ollama führt KI-Modelle lokal auf Ihrem Rechner aus und bietet vollständige Privatsphäre und Kontrolle ohne API-Kosten oder Internetanforderungen.

  • llama3.2 (Empfohlen für allgemeine Zwecke)
  • mistral (Effiziente Alternative)
  • codellama (Code-bewusste Übersetzungen)
  • Und viele weitere Community-Modelle

Konfigurationsoptionen

  • Basis-URL: Lokaler Ollama-Server (Standard: http://localhost:11434)
  • Modell: Name des lokal installierten Modells (erforderlich)
  • Chat-API verwenden: Für bessere Konversationsbehandlung aktivieren
  • Temperatur: 0,0-2,0 (0,3 empfohlen)
  • Maximale Tokens: 1-8.192 Tokens
  • Kontextgröße: 512-32.768 Tokens
  • Anfrage-Timeout: 10-300 Sekunden (lokale Modelle können langsamer sein)
  • Streaming aktivieren: Für Echtzeit-Antwortverarbeitung

Stärken

  • ✅ Vollständige Privatsphäre (keine Daten verlassen Ihren Rechner)
  • ✅ Keine API-Kosten oder Nutzungslimits
  • ✅ Funktioniert offline
  • ✅ Vollständige Kontrolle über Modellparameter
  • ✅ Große Auswahl an Community-Modellen
  • ✅ Kein Vendor Lock-in

Überlegungen

  • 💻 Erfordert lokale Einrichtung und leistungsfähige Hardware
  • ⚡ Allgemein langsamer als Cloud-Anbieter
  • 🔧 Technisch anspruchsvollere Einrichtung erforderlich
  • 📊 Übersetzungsqualität variiert stark je nach Modell (einige können Cloud-Anbieter übertreffen)
  • 💾 Großer Speicherbedarf für Modelle

Einrichtung von Ollama

  1. Ollama installieren: Laden Sie es von ollama.ai herunter und installieren Sie es auf Ihrem System
  2. Modelle herunterladen: Verwenden Sie ollama pull llama3.2, um Ihr gewähltes Modell herunterzuladen
  3. Server starten: Ollama läuft automatisch oder starten Sie es mit ollama serve
  4. Plugin konfigurieren: Legen Sie Basis-URL und Modellnamen in den Plugin-Einstellungen fest
  5. Verbindung testen: Das Plugin überprüft die Konnektivität, wenn Sie die Konfiguration anwenden

OpenAI

Am besten geeignet für: Höchste allgemeine Übersetzungsqualität, umfangreiche Modellauswahl

OpenAI bietet branchenführende Sprachmodelle über ihre API an, einschließlich der neuesten GPT-Modelle und des neuen Responses API-Formats.

Verfügbare Modelle

  • gpt-5 (Neuestes Flaggschiff-Modell)
  • gpt-5-mini (Kleinere, schnellere Variante)
  • gpt-4.1 und gpt-4.1-mini
  • gpt-4o und gpt-4o-mini (Optimierte Modelle)
  • o3 und o3-mini (Fortgeschrittenes Reasoning)
  • o1 und o1-mini (Vorherige Generation)

Konfigurationsoptionen

  • API-Schlüssel: Ihr OpenAI API-Schlüssel (erforderlich)
  • Basis-URL: API-Endpunkt (Standard: OpenAIs Server)
  • Modell: Aus verfügbaren GPT-Modellen wählen
  • Temperatur: 0,0-2,0 (0,3 für Übersetzungskonsistenz empfohlen)
  • Maximale Ausgabe-Tokens: 1-128.000 Tokens
  • Anfrage-Timeout: 5-300 Sekunden
  • Ausführlichkeit: Detaillierungsgrad der Antworten steuern

Stärken

  • ✅ Durchgehend hochwertige Übersetzungen
  • ✅ Hervorragendes Kontextverständnis
  • ✅ Starke Formatierungserhaltung
  • ✅ Breite Sprachunterstützung
  • ✅ Zuverlässige API-Verfügbarkeit

Überlegungen

  • 💰 Höhere Kosten pro Anfrage
  • 🌐 Internetverbindung erforderlich
  • ⏱️ Nutzungslimits basierend auf Tier

Anthropic Claude

Am besten für: Nuancierte Übersetzungen, kreative Inhalte, sicherheitsfokussierte Anwendungen

Claude-Modelle zeichnen sich durch ein hervorragendes Verständnis von Kontext und Nuancen aus, was sie ideal für erzähllastige Spiele und komplexe Lokalisierungsszenarien macht.

Verfügbare Modelle

  • claude-opus-4-1-20250805 (Neuestes Flaggschiff)
  • claude-opus-4-20250514
  • claude-sonnet-4-20250514
  • claude-3-7-sonnet-20250219
  • claude-3-5-haiku-20241022 (Schnell und effizient)
  • claude-3-haiku-20240307

Konfigurationsoptionen

  • API-Schlüssel: Ihr Anthropic API-Schlüssel (erforderlich)
  • Basis-URL: Claude API-Endpunkt
  • Modell: Aus der Claude-Modellfamilie auswählen
  • Temperatur: 0,0-1,0 (0,3 empfohlen)
  • Maximale Tokens: 1-64.000 Tokens
  • Anfrage-Timeout: 5-300 Sekunden
  • Anthropic Version: API-Versions-Header

Stärken

  • ✅ Außergewöhnliches Kontextbewusstsein
  • ✅ Großartig für kreative/erzählerische Inhalte
  • ✅ Starke Sicherheitsfunktionen
  • ✅ Detaillierte Fähigkeiten zur Schlussfolgerung
  • ✅ Hervorragende Befolgung von Anweisungen

Überlegungen

  • 💰 Premium-Preismodell
  • 🌐 Internetverbindung erforderlich
  • 📏 Token-Limits variieren je nach Modell

DeepSeek

Am besten für: Kosteneffiziente Übersetzung, hohen Durchsatz, budgetbewusste Projekte

DeepSeek bietet wettbewerbsfähige Übersetzungsqualität zu einem Bruchteil der Kosten anderer Anbieter, was es ideal für groß angelegte Lokalisierungsprojekte macht.

Verfügbare Modelle

  • deepseek-chat (Allgemeiner Zweck, empfohlen)
  • deepseek-reasoner (Erweiterte Fähigkeiten zur Schlussfolgerung)

Konfigurationsoptionen

  • API-Schlüssel: Ihr DeepSeek API-Schlüssel (erforderlich)
  • Basis-URL: DeepSeek API-Endpunkt
  • Modell: Wählen Sie zwischen Chat- und Reasoner-Modellen
  • Temperatur: 0,0-2,0 (0,3 empfohlen)
  • Maximale Tokens: 1-8.192 Tokens
  • Anfrage-Timeout: 5-300 Sekunden

Stärken

  • ✅ Sehr kosteneffektiv
  • ✅ Gute Übersetzungsqualität
  • ✅ Schnelle Antwortzeiten
  • ✅ Einfache Konfiguration
  • ✅ Hohe Ratenlimits

Überlegungen

  • 📏 Niedrigere Token-Limits
  • 🆕 Neuerer Anbieter (weniger Erfahrungswerte)
  • 🌐 Internetverbindung erforderlich

Google Gemini

Am besten geeignet für: Mehrsprachige Projekte, kostengünstige Übersetzungen, Integration in das Google-Ökosystem

Gemini-Modelle bieten starke mehrsprachige Fähigkeiten mit wettbewerbsfähigen Preisen und einzigartigen Funktionen wie den Denkmodus für verbessertes Schlussfolgern.

Verfügbare Modelle

  • gemini-2.5-pro (Neuestes Flaggschiff mit Denkmodus)
  • gemini-2.5-flash (Schnell, mit Denkmodus-Unterstützung)
  • gemini-2.5-flash-lite (Leichtgewichtige Variante)
  • gemini-2.0-flash und gemini-2.0-flash-lite
  • gemini-1.5-pro und gemini-1.5-flash

Konfigurationsoptionen

  • API-Schlüssel: Ihr Google AI API-Schlüssel (erforderlich)
  • Basis-URL: Gemini API-Endpunkt
  • Modell: Aus der Gemini-Modellfamilie auswählen
  • Temperatur: 0,0-2,0 (0,3 empfohlen)
  • Maximale Ausgabe-Tokens: 1-8.192 Tokens
  • Anfrage-Timeout: 5-300 Sekunden
  • Denkmodus aktivieren: Erweitertes Schlussfolgern für 2.5-Modelle aktivieren
  • Denk-Budget: Steuerung der Token-Zuweisung für den Denkmodus

Stärken

  • ✅ Starke mehrsprachige Unterstützung
  • ✅ Wettbewerbsfähige Preise
  • ✅ Erweitertes Schlussfolgern (Denkmodus)
  • ✅ Integration in das Google-Ökosystem
  • ✅ Regelmäßige Modell-Updates

Überlegungen

  • 🧠 Der Denkmodus erhöht den Token-Verbrauch
  • 📏 Variable Token-Limits je nach Modell
  • 🌐 Internetverbindung erforderlich

Den richtigen Anbieter auswählen

AnbieterAm besten geeignet fürQualitätKostenEinrichtungDatenschutz
OllamaDatenschutz/OfflineVariabel*KostenlosFortgeschrittenLokal
OpenAIHöchste Qualität⭐⭐⭐⭐⭐💰💰💰EinfachCloud
ClaudeKreative Inhalte⭐⭐⭐⭐⭐💰💰💰💰EinfachCloud
DeepSeekBudget-Projekte⭐⭐⭐⭐💰EinfachCloud
GeminiMehrsprachig⭐⭐⭐⭐💰EinfachCloud

*Die Qualität bei Ollama variiert erheblich basierend auf dem verwendeten lokalen Modell - einige moderne lokale Modelle können Cloud-Anbieter erreichen oder übertreffen.

Tipps zur Anbieterkonfiguration

Für alle Cloud-Anbieter:

  • API-Schlüssel sicher speichern und nicht in die Versionskontrolle einbinden
  • Mit konservativen Temperatureinstellungen (0,3) beginnen, um konsistente Übersetzungen zu erhalten
  • Ihre API-Nutzung und Kosten überwachen
  • Vor großen Übersetzungsläufen mit kleinen Stapeln testen

Für Ollama:

  • Ausreichend RAM sicherstellen (8GB+ für größere Modelle empfohlen)
  • SSD-Speicher für eine bessere Modell-Ladeleistung verwenden
  • GPU-Beschleunigung für schnellere Inferenz in Betracht ziehen
  • Lokal testen, bevor man sich für Produktionsübersetzungen darauf verlässt