본문으로 건너뛰기

번역 제공업체

AI Localization Automator는 각각 고유한 강점과 구성 옵션을 가진 5가지 다른 AI 제공업체를 지원합니다. 프로젝트의 요구 사항, 예산 및 품질 요구 사항에 가장 적합한 제공업체를 선택하세요.

Ollama (로컬 AI)

최적 용도: 개인정보 보안이 중요한 프로젝트, 오프라인 번역, 무제한 사용

Ollama는 기기에서 AI 모델을 로컬로 실행하여 API 비용이나 인터넷 연결 없이 완전한 개인정보 보호와 제어를 제공합니다.

  • llama3.2 (권장 범용 모델)
  • mistral (효율적인 대안)
  • codellama (코드 인식 번역)
  • 그 외 많은 커뮤니티 모델

구성 옵션

  • Base URL: 로컬 Ollama 서버 (기본값: http://localhost:11434)
  • Model: 로컬에 설치된 모델 이름 (필수)
  • Use Chat API: 더 나은 대화 처리를 위해 활성화
  • Temperature: 0.0-2.0 (0.3 권장)
  • Max Tokens: 1-8,192 토큰
  • Context Size: 512-32,768 토큰
  • Request Timeout: 10-300초 (로컬 모델은 더 느릴 수 있음)
  • Enable Streaming: 실시간 응답 처리를 위해

강점

  • ✅ 완전한 개인정보 보호 (데이터가 기기를 떠나지 않음)
  • ✅ API 비용이나 사용 제한 없음
  • ✅ 오프라인 작동
  • ✅ 모델 매개변수에 대한 완전한 제어
  • ✅ 다양한 커뮤니티 모델
  • ✅ 벤더 종속성 없음

고려 사항

  • 💻 로컬 설정과 충분한 하드웨어 성능 필요
  • ⚡ 일반적으로 클라우드 제공업체보다 느림
  • 🔧 더 많은 기술적 설정 필요
  • 📊 모델에 따라 번역 품질이 크게 다름 (일부는 클라우드 제공업체를 능가할 수 있음)
  • 💾 모델 저장을 위한 대용량 저장 공간 필요

Ollama 설정

  1. Ollama 설치: ollama.ai에서 다운로드하여 시스템에 설치
  2. 모델 다운로드: ollama pull llama3.2를 사용하여 선택한 모델 다운로드
  3. 서버 시작: Ollama는 자동으로 실행되거나 ollama serve로 시작
  4. 플러그인 구성: 플러그인 설정에서 기본 URL과 모델 이름 설정
  5. 연결 테스트: 구성을 적용할 때 플러그인이 연결성을 확인함

OpenAI

최적 용도: 전체적으로 가장 높은 번역 품질, 광범위한 모델 선택

OpenAI는 최신 GPT 모델과 새로운 Responses API 형식을 포함하여 API를 통해 업계를 선도하는 언어 모델을 제공합니다.

사용 가능한 모델

  • gpt-5 (최신 주력 모델)
  • gpt-5-mini (더 작고 빠른 변형)
  • gpt-4.1gpt-4.1-mini
  • gpt-4ogpt-4o-mini (최적화된 모델)
  • o3o3-mini (고급 추론)
  • o1o1-mini (이전 세대)

구성 옵션

  • API 키: 귀하의 OpenAI API 키 (필수)
  • 기본 URL: API 엔드포인트 (기본값: OpenAI 서버)
  • 모델: 사용 가능한 GPT 모델 중 선택
  • Temperature: 0.0-2.0 (번역 일관성을 위해 0.3 권장)
  • 최대 출력 토큰: 1-128,000 토큰
  • 요청 시간 초과: 5-300초
  • Verbosity: 응답 상세 수준 제어

강점

  • ✅ 일관되게 높은 품질의 번역
  • ✅ 뛰어난 문맥 이해력
  • ✅ 강력한 형식 유지
  • ✅ 광범위한 언어 지원
  • ✅ 안정적인 API 가동 시간

고려 사항

  • 💰 요청당 높은 비용
  • 🌐 인터넷 연결 필요
  • ⏱️ 등급에 따른 사용량 제한

Anthropic Claude

최적 용도: 미묘한 뉘앙스의 번역, 창의적인 콘텐츠, 안전 중심 애플리케이션

Claude 모델은 문맥과 뉘앙스를 이해하는 능력이 뛰어나서, 서사 중심 게임과 복잡한 현지화 시나리오에 이상적입니다.

사용 가능한 모델

  • claude-opus-4-1-20250805 (최신 플래그십)
  • claude-opus-4-20250514
  • claude-sonnet-4-20250514
  • claude-3-7-sonnet-20250219
  • claude-3-5-haiku-20241022 (빠르고 효율적)
  • claude-3-haiku-20240307

구성 옵션

  • API 키: 귀하의 Anthropic API 키 (필수)
  • 기본 URL: Claude API 엔드포인트
  • 모델: Claude 모델 패밀리 중 선택
  • Temperature: 0.0-1.0 (0.3 권장)
  • 최대 토큰: 1-64,000 토큰
  • 요청 시간 초과: 5-300초
  • Anthropic 버전: API 버전 헤더

강점

  • ✅ 탁월한 문맥 인식
  • ✅ 창의적/서사적 콘텐츠에 적합
  • ✅ 강력한 안전 기능
  • ✅ 상세한 추론 능력
  • ✅ 뛰어난 지시 따르기 능력

고려 사항

  • 💰 프리미엄 가격 정책
  • 🌐 인터넷 연결 필요
  • 📏 모델별 토큰 제한 상이

DeepSeek

최적 용도: 비용 효율적인 번역, 높은 처리량, 예산에 민감한 프로젝트

DeepSeek은 다른 제공업체 대비 훨씬 저렴한 비용으로 경쟁력 있는 번역 품질을 제공하여 대규모 현지화 프로젝트에 이상적입니다.

사용 가능한 모델

  • deepseek-chat (일반 목적, 권장)
  • deepseek-reasoner (향상된 추론 능력)

구성 옵션

  • API 키: 귀하의 DeepSeek API 키 (필수)
  • 기본 URL: DeepSeek API 엔드포인트
  • 모델: 채팅 및 리저너 모델 중 선택
  • Temperature: 0.0-2.0 (0.3 권장)
  • 최대 토큰: 1-8,192 토큰
  • 요청 시간 초과: 5-300초

강점

  • ✅ 매우 비용 효율적
  • ✅ 양호한 번역 품질
  • ✅ 빠른 응답 시간
  • ✅ 간단한 구성
  • ✅ 높은 속도 제한

고려 사항

  • 📏 낮은 토큰 한도
  • 🆕 새로운 제공업체(실적이 적음)
  • 🌐 인터넷 연결 필요

Google Gemini

최적 용도: 다국어 프로젝트, 비용 효율적인 번역, Google 생태계 통합

Gemini 모델은 향상된 추론을 위한 사고 모드와 같은 고유한 기능과 함께 경쟁력 있는 가격으로 강력한 다국어 기능을 제공합니다.

사용 가능한 모델

  • gemini-2.5-pro (사고 기능을 갖춘 최신 주력 모델)
  • gemini-2.5-flash (빠른 속도, 사고 기능 지원)
  • gemini-2.5-flash-lite (경량 변형)
  • gemini-2.0-flashgemini-2.0-flash-lite
  • gemini-1.5-progemini-1.5-flash

구성 옵션

  • API Key: 귀하의 Google AI API 키(필수)
  • Base URL: Gemini API 엔드포인트
  • Model: Gemini 모델 패밀리에서 선택
  • Temperature: 0.0-2.0 (0.3 권장)
  • Max Output Tokens: 1-8,192 토큰
  • Request Timeout: 5-300초
  • Enable Thinking: 2.5 모델용 향상된 추론 활성화
  • Thinking Budget: 사고 토큰 할당 제어

강점

  • ✅ 강력한 다국어 지원
  • ✅ 경쟁력 있는 가격
  • ✅ 고급 추론(사고 모드)
  • ✅ Google 생태계 통합
  • ✅ 정기적인 모델 업데이트

고려 사항

  • 🧠 사고 모드는 토큰 사용량 증가
  • 📏 모델별 가변적인 토큰 한도
  • 🌐 인터넷 연결 필요

적합한 제공업체 선택

제공업체최적 용도품질비용설정개인정보 보호
Ollama개인정보 보호/오프라인가변적*무료고급로컬
OpenAI최고 품질⭐⭐⭐⭐⭐💰💰💰쉬움클라우드
Claude창의적인 콘텐츠⭐⭐⭐⭐⭐💰💰💰💰쉬움클라우드
DeepSeek예산 프로젝트⭐⭐⭐⭐💰쉬움클라우드
Gemini다국어⭐⭐⭐⭐💰쉬움클라우드

*Ollama의 품질은 사용된 로컬 모델에 따라 크게 달라집니다. 일부 최신 로컬 모델은 클라우드 제공업체와 동등하거나 그 이상의 성능을 발휘할 수 있습니다.

제공업체 구성 팁

모든 클라우드 제공업체의 경우:

  • API 키를 안전하게 저장하고 버전 관리 시스템에 커밋하지 마십시오.
  • 일관된 번역을 위해 보수적인 temperature 설정(0.3)으로 시작하십시오.
  • API 사용량과 비용을 모니터링하십시오.
  • 대량 번역 실행 전에 소규모 배치로 테스트하십시오.

Ollama의 경우:

  • 충분한 RAM 확보(더 큰 모델의 경우 8GB+ 권장)
  • 더 나은 모델 로딩 성능을 위해 SSD 스토리지 사용
  • 더 빠른 추론을 위해 GPU 가속 고려
  • 프로덕션 번역에 의존하기 전에 로컬에서 테스트