LM Studio
Ejecute agentes de IA con modelos locales utilizando LM Studio. LM Studio proporciona una interfaz gráfica (GUI) para descargar, gestionar y servir modelos locales con una API compatible con OpenAI.
Configuración
- Descargue LM Studio desde lmstudio.ai
- Abra LM Studio y descargue un modelo desde el navegador de modelos integrado.
- Inicie el servidor local (Pestaña Server → Start Server).
- LM Studio sirve en
localhost:1234por defecto. Configure endroid.yaml:
lm_studio:
base_url: "http://localhost:1234/v1"
No se requiere clave API.
Configuración del agente
name: "local-agent"
model:
provider: "lm_studio"
name: "local-model" # Utilice el identificador de modelo que se muestra en LM Studio
max_tokens: 2048
temperature: 0.7
El model.name debe coincidir con el modelo cargado en LM Studio. Puede comprobar el modelo actual en la pestaña Server de LM Studio.
Notas
- LM Studio ofrece una interfaz gráfica amigable para la gestión de modelos, muy útil si prefiere una interfaz visual en lugar de la CLI de Ollama.
- La compatibilidad con la API de OpenAI significa que funciona a la perfección con Sinaptic® DROID+.
- El soporte para el uso de herramientas (llamada a funciones) depende del modelo que cargue.
- LM Studio es compatible con el formato de modelo GGUF. La mayoría de los modelos abiertos más populares están disponibles en GGUF.
- Si ejecuta Sinaptic® DROID+ en Docker, utilice
host.docker.internal:1234para conectarse a LM Studio en la máquina host.