メインコンテンツまでスキップ

このページでは、Runtime Local LLM プラグインを使用した一般的なワークフローを示す、すぐに使用できる完全な例を提供します。各例には Blueprint と C++ の両方の実装が含まれています。

API の概要を確認するために、まず プラグインの使用方法 をお読みください。

シンプルチャット

LLM インスタンスを作成し、名前でモデルを読み込み、メッセージを送信し、応答を1トークンずつ表示します。

ダウンロード、ロード、チャット

実行時にURLからモデルをダウンロードし、ロードして会話を開始します。モデルが既にディスク上に存在する場合、ダウンロードはスキップされます。

モデルの事前ダウンロード

モデルをロードせずにディスクにダウンロードします。設定画面やローディングメニューで、ユーザーが事前にキャッシュするモデルを選択するのに便利です。

NPC 会話

プレイヤーがメッセージを入力し、NPCが応答する基本的なNPC会話システムです。会話のコンテキストはメッセージ間で保持されるため、NPCは以前のやり取りを記憶しています。