Saltar al contenido principal

LM Studio

Ejecute agentes de IA con modelos locales utilizando LM Studio. LM Studio proporciona una interfaz gráfica (GUI) para descargar, gestionar y servir modelos locales con una API compatible con OpenAI.

Configuración

  1. Descargue LM Studio desde lmstudio.ai
  2. Abra LM Studio y descargue un modelo desde el navegador de modelos integrado.
  3. Inicie el servidor local (Pestaña Server → Start Server).
  4. LM Studio sirve en localhost:1234 por defecto. Configure en droid.yaml:
lm_studio:
base_url: "http://localhost:1234/v1"

No se requiere clave API.

Configuración del agente

name: "local-agent"
model:
provider: "lm_studio"
name: "local-model" # Utilice el identificador de modelo que se muestra en LM Studio
max_tokens: 2048
temperature: 0.7

El model.name debe coincidir con el modelo cargado en LM Studio. Puede comprobar el modelo actual en la pestaña Server de LM Studio.

Notas

  • LM Studio ofrece una interfaz gráfica amigable para la gestión de modelos, muy útil si prefiere una interfaz visual en lugar de la CLI de Ollama.
  • La compatibilidad con la API de OpenAI significa que funciona a la perfección con Sinaptic® DROID+.
  • El soporte para el uso de herramientas (llamada a funciones) depende del modelo que cargue.
  • LM Studio es compatible con el formato de modelo GGUF. La mayoría de los modelos abiertos más populares están disponibles en GGUF.
  • Si ejecuta Sinaptic® DROID+ en Docker, utilice host.docker.internal:1234 para conectarse a LM Studio en la máquina host.