Zum Hauptinhalt springen

Beispiele

Diese Seite enthält vollständige, einsatzbereite Beispiele, die häufige Arbeitsabläufe mit dem Runtime Local LLM Plugin demonstrieren. Jedes Beispiel umfasst sowohl Blueprint- als auch C++-Implementierungen.

Stellen Sie sicher, dass Sie zuerst Verwendung des Plugins lesen, um einen Überblick über die API zu erhalten.

Einfacher Chat

Erstellen Sie eine LLM-Instanz, laden Sie ein Modell anhand seines Namens, senden Sie eine Nachricht und zeigen Sie die Antwort Token für Token an.

Herunterladen, Laden und Chatten

Laden Sie ein Modell von einer URL zur Laufzeit herunter, laden Sie es und starten Sie eine Unterhaltung. Der Download wird übersprungen, wenn das Modell bereits auf der Festplatte vorhanden ist.

Modelle vorab herunterladen

Modelle ohne Laden auf die Festplatte herunterladen, nützlich für einen Einstellungsbildschirm oder ein Lademenü, in dem Benutzer Modelle auswählen, um sie vorab zwischenzuspeichern.

NPC-Dialog

Ein einfaches NPC-Dialogsystem, bei dem der Spieler eine Nachricht eingibt und der NPC antwortet. Der Gesprächskontext bleibt zwischen den Nachrichten erhalten, sodass der NPC sich an vorherige Austausche erinnert.