Перейти к основному содержимому

Примеры

На этой странице представлены полные, готовые к использованию примеры, демонстрирующие типичные сценарии работы с плагином Runtime Local LLM. Каждый пример включает как реализацию на Blueprint, так и на C++.

Сначала обязательно прочитайте Как использовать плагин, чтобы ознакомиться с API.

Простой чат

Создайте экземпляр LLM, загрузите модель по имени, отправьте сообщение и отображайте ответ по токенам.

Скачать, загрузить и чат

Скачайте модель по URL во время выполнения, загрузите её и начните разговор. Загрузка пропускается, если модель уже существует на диске.

Предварительная загрузка моделей

Загрузка моделей на диск без загрузки в память, удобно для экрана настроек или меню загрузки, где пользователи выбирают модели для предварительного кеширования.

Диалог с NPC

Базовая система диалога с NPC, где игрок вводит сообщение, и NPC отвечает. Контекст разговора сохраняется между сообщениями, поэтому NPC запоминает предыдущие реплики.