Przejdź do głównej zawartości

Przykłady

Ta strona zawiera kompletne, gotowe do użycia przykłady demonstrujące typowe przepływy pracy z wtyczką Runtime Local LLM. Każdy przykład zawiera implementacje zarówno w Blueprint, jak i C++.

Upewnij się, że najpierw przeczytałeś Jak używać wtyczki, aby zapoznać się z API.

Prosta rozmowa

Utwórz instancję LLM, załaduj model po nazwie, wyślij wiadomość i wyświetl odpowiedź token po tokenie.

Pobieranie, ładowanie i rozmowa

Pobierz model z adresu URL w czasie wykonania, załaduj go i rozpocznij konwersację. Pobieranie jest pomijane, jeśli model już istnieje na dysku.

Wstępne pobieranie modeli

Pobierz modele na dysk bez ładowania, przydatne na ekranie ustawień lub w menu ładowania, gdzie użytkownicy wybierają modele do wcześniejszego zapisania w pamięci podręcznej.

Dialog NPC

Podstawowy system dialogów z NPC, w którym gracz wpisuje wiadomość, a NPC odpowiada. Kontekst rozmowy jest zachowywany między wiadomościami, dzięki czemu NPC pamięta poprzednie wymiany.