Saltar al contenido principal

Ejemplos

Esta página proporciona ejemplos completos y listos para usar que demuestran flujos de trabajo comunes con el plugin Runtime Local LLM. Cada ejemplo incluye implementaciones tanto en Blueprint como en C++.

Asegúrate de haber leído Cómo usar el plugin primero para obtener una visión general de la API.

Chat Simple

Crea una instancia de LLM, carga un modelo por nombre, envía un mensaje y muestra la respuesta token por token.

Descargar, Cargar y Chatear

Descargar un modelo desde una URL en tiempo de ejecución, cargarlo e iniciar una conversación. La descarga se omite si el modelo ya existe en el disco.

Pre-descarga de modelos

Descarga modelos en el disco sin cargarlos, útil para una pantalla de configuración o menú de carga donde los usuarios seleccionan modelos para almacenar en caché con antelación.

Diálogo de NPC

Un sistema básico de diálogo con NPC donde el jugador escribe un mensaje y el NPC responde. El contexto de la conversación persiste entre mensajes, por lo que el NPC recuerda interacciones anteriores.