Перейти к основному содержимому

Провайдеры перевода

AI Localization Automator поддерживает пять различных AI-провайдеров, каждый со своими уникальными преимуществами и параметрами настройки. Выберите провайдера, который лучше всего соответствует потребностям вашего проекта, бюджету и требованиям к качеству.

Ollama (Локальный ИИ)

Лучше всего подходит для: Проектов, чувствительных к конфиденциальности, офлайн-перевода, неограниченного использования

Ollama запускает AI-модели локально на вашем компьютере, обеспечивая полную конфиденциальность и контроль без затрат на API и необходимости подключения к интернету.

  • translategemma:12b (Специализированная модель перевода на основе Gemma 3)
  • llama3.2 (Рекомендуемая модель общего назначения)
  • mistral (Эффективная альтернатива)
  • codellama (Перевод с учетом кода)
  • И многие другие модели сообщества

Параметры конфигурации

  • Базовый URL: Локальный сервер Ollama (по умолчанию: http://localhost:11434)
  • Модель: Имя локально установленной модели (обязательно)
  • Использовать Chat API: Включить для лучшей обработки диалогов
  • Температура: 0.0-2.0 (рекомендуется 0.3)
  • Максимум токенов: 1-8,192 токена
  • Размер контекста: 512-32,768 токенов
  • Таймаут запроса: 10-300 секунд (локальные модели могут быть медленнее)
  • Включить потоковую передачу: Для обработки ответов в реальном времени

Преимущества

  • ✅ Полная конфиденциальность (данные не покидают ваш компьютер)
  • ✅ Нет затрат на API или ограничений по использованию
  • ✅ Работает офлайн
  • ✅ Полный контроль над параметрами модели
  • ✅ Широкий выбор моделей сообщества
  • ✅ Нет привязки к поставщику

Особенности

  • 💻 Требует локальной настройки и производительного оборудования
  • ⚡ Как правило, медленнее, чем облачные провайдеры
  • 🔧 Требуется более техническая настройка
  • 📊 Качество перевода значительно варьируется в зависимости от модели (некоторые могут превосходить облачных провайдеров)
  • 💾 Большие требования к объему памяти для моделей

Настройка Ollama

  1. Установите Ollama: Скачайте с ollama.ai и установите на вашу систему
  2. Загрузите модели: Используйте ollama pull translategemma:12b для загрузки выбранной модели
  3. Запустите сервер: Ollama запускается автоматически, или запустите с помощью ollama serve
  4. Настройте плагин: Установите базовый URL и имя модели в настройках плагина
  5. Проверьте соединение: Плагин проверит подключение при применении конфигурации

OpenAI

Лучше всего подходит для: Самого высокого общего качества перевода, обширного выбора моделей

OpenAI предоставляет передовые языковые модели через свой API, включая последние модели GPT и новый формат Responses API.

Доступные модели

  • gpt-5 (Последняя флагманская модель)
  • gpt-5-mini (Меньший, более быстрый вариант)
  • gpt-4.1 и gpt-4.1-mini
  • gpt-4o и gpt-4o-mini (Оптимизированные модели)
  • o3 и o3-mini (Продвинутое логическое мышление)
  • o1 и o1-mini (Предыдущее поколение)

Параметры конфигурации

  • API-ключ: Ваш API-ключ OpenAI (обязательно)
  • Базовый URL: Конечная точка API (по умолчанию: серверы OpenAI)
  • Модель: Выберите из доступных моделей GPT
  • Температура: 0.0-2.0 (рекомендуется 0.3 для согласованности перевода)
  • Максимум выходных токенов: 1-128,000 токенов
  • Таймаут запроса: 5-300 секунд
  • Подробность: Управление уровнем детализации ответа

Преимущества

  • ✅ Стабильно высокое качество переводов
  • ✅ Отличное понимание контекста
  • ✅ Хорошее сохранение формата
  • ✅ Поддержка широкого спектра языков
  • ✅ Надежная доступность API

Особенности

  • 💰 Высокая стоимость за запрос
  • 🌐 Требуется подключение к интернету
  • ⏱️ Ограничения использования в зависимости от тарифа

Anthropic Claude

Лучше всего подходит для: Нюансированных переводов, творческого контента, приложений, ориентированных на безопасность

Модели Claude превосходно понимают контекст и нюансы, что делает их идеальными для игр с насыщенным повествованием и сложных сценариев локализации.

Доступные модели

  • claude-opus-4-1-20250805 (Последняя флагманская)
  • claude-opus-4-20250514
  • claude-sonnet-4-20250514
  • claude-3-7-sonnet-20250219
  • claude-3-5-haiku-20241022 (Быстрая и эффективная)
  • claude-3-haiku-20240307

Параметры конфигурации

  • API-ключ: Ваш API-ключ Anthropic (обязательно)
  • Базовый URL: Конечная точка API Claude
  • Модель: Выберите из семейства моделей Claude
  • Температура: 0.0-1.0 (рекомендуется 0.3)
  • Максимум токенов: 1-64,000 токенов
  • Таймаут запроса: 5-300 секунд
  • Версия Anthropic: Заголовок версии API

Преимущества

  • ✅ Исключительная осведомленность о контексте
  • ✅ Отлично подходит для творческого/нарративного контента
  • ✅ Мощные функции безопасности
  • ✅ Подробные возможности логического мышления
  • ✅ Отличное следование инструкциям

Особенности

  • 💰 Премиальная ценовая модель
  • 🌐 Требуется подключение к интернету
  • 📏 Лимиты токенов варьируются в зависимости от модели

DeepSeek

Лучше всего подходит для: Экономичного перевода, высокой пропускной способности, проектов с ограниченным бюджетом

DeepSeek предлагает конкурентоспособное качество перевода за долю стоимости других провайдеров, что делает его идеальным для крупномасштабных проектов локализации.

Доступные модели

  • deepseek-chat (Общего назначения, рекомендуется)
  • deepseek-reasoner (Улучшенные возможности логического мышления)

Параметры конфигурации

  • API-ключ: Ваш API-ключ DeepSeek (обязательно)
  • Базовый URL: Конечная точка API DeepSeek
  • Модель: Выберите между чат-моделями и моделями с логическим мышлением
  • Температура: 0.0-2.0 (рекомендуется 0.3)
  • Максимум токенов: 1-8,192 токенов
  • Таймаут запроса: 5-300 секунд

Преимущества

  • ✅ Очень экономично
  • ✅ Хорошее качество перевода
  • ✅ Быстрое время отклика
  • ✅ Простая конфигурация
  • ✅ Высокие лимиты запросов

Особенности

  • 📏 Нижние лимиты токенов
  • 🆕 Более новый провайдер (меньше опыта работы)
  • 🌐 Требуется подключение к интернету

Google Gemini

Лучше всего подходит для: Многоязычных проектов, экономичного перевода, интеграции с экосистемой Google

Модели Gemini предлагают мощные многоязычные возможности по конкурентоспособным ценам и уникальные функции, такие как режим мышления для улучшенного логического анализа.

Доступные модели

  • gemini-2.5-pro (Последняя флагманская с мышлением)
  • gemini-2.5-flash (Быстрая, с поддержкой мышления)
  • gemini-2.5-flash-lite (Облегченный вариант)
  • gemini-2.0-flash и gemini-2.0-flash-lite
  • gemini-1.5-pro и gemini-1.5-flash

Параметры конфигурации

  • API-ключ: Ваш API-ключ Google AI (обязательно)
  • Базовый URL: Конечная точка API Gemini
  • Модель: Выберите из семейства моделей Gemini
  • Температура: 0.0-2.0 (рекомендуется 0.3)
  • Максимум выходных токенов: 1-8,192 токенов
  • Таймаут запроса: 5-300 секунд
  • Включить мышление: Активировать улучшенное логическое мышление для моделей 2.5
  • Бюджет мышления: Управление выделением токенов для мышления

Преимущества

  • ✅ Мощная поддержка многоязычности
  • ✅ Конкурентоспособные цены
  • ✅ Продвинутое логическое мышление (режим мышления)
  • ✅ Интеграция с экосистемой Google
  • ✅ Регулярные обновления моделей

Особенности

  • 🧠 Режим мышления увеличивает использование токенов
  • 📏 Переменные лимиты токенов в зависимости от модели
  • 🌐 Требуется подключение к интернету

Выбор подходящего провайдера

ПровайдерЛучше всего подходит дляКачествоСтоимостьНастройкаКонфиденциальность
OllamaКонфиденциальность/офлайнПеременное*БесплатноПродвинутаяЛокальная
OpenAIВысшее качество⭐⭐⭐⭐⭐💰💰💰ЛегкаяОблачная
ClaudeТворческий контент⭐⭐⭐⭐⭐💰💰💰💰ЛегкаяОблачная
DeepSeekБюджетные проекты⭐⭐⭐⭐💰ЛегкаяОблачная
GeminiМногоязычность⭐⭐⭐⭐💰ЛегкаяОблачная

*Качество для Ollama значительно варьируется в зависимости от используемой локальной модели — некоторые современные локальные модели могут соответствовать или превосходить облачных провайдеров.

Советы по настройке провайдеров

Для всех облачных провайдеров:

  • Храните API-ключи безопасно и не добавляйте их в систему контроля версий
  • Начните с консервативных настроек температуры (0.3) для согласованных переводов
  • Отслеживайте использование API и затраты
  • Тестируйте на небольших пакетах перед запуском крупных переводов

Для Ollama:

  • Убедитесь в наличии достаточного объема ОЗУ (рекомендуется 8 ГБ+ для больших моделей)
  • Используйте SSD-накопитель для лучшей производительности загрузки моделей
  • Рассмотрите возможность ускорения на GPU для более быстрого вывода
  • Тестируйте локально, прежде чем полагаться на него для производственных переводов