본문으로 건너뛰기

예제

이 페이지는 Runtime Local LLM 플러그인을 사용한 일반적인 작업 흐름을 보여주는 완전하고 즉시 사용 가능한 예제를 제공합니다. 각 예제는 Blueprint와 C++ 구현을 모두 포함합니다.

API 개요를 위해 먼저 플러그인 사용 방법을 읽어보세요.

간단한 채팅

LLM 인스턴스를 생성하고, 이름으로 모델을 로드한 다음, 메시지를 보내고 응답을 토큰 단위로 표시합니다.

다운로드, 로드 및 채팅

런타임에 URL에서 모델을 다운로드하고, 로드한 후 대화를 시작합니다. 모델이 이미 디스크에 존재하면 다운로드를 건너뜁니다.

모델 사전 다운로드

로딩 없이 디스크에 모델을 다운로드합니다. 설정 화면이나 로딩 메뉴에서 사용자가 미리 캐시할 모델을 선택할 때 유용합니다.

NPC 대화

플레이어가 메시지를 입력하면 NPC가 응답하는 기본적인 NPC 대화 시스템입니다. 대화 컨텍스트는 메시지 간에 유지되므로 NPC가 이전 대화를 기억합니다.