LM Studio
Voer AI-agents uit met lokale modellen met behulp van LM Studio. LM Studio biedt een grafische interface (GUI) voor het downloaden, beheren en serveren van lokale modellen met een OpenAI-compatibele API.
Configuratie
- Download LM Studio van lmstudio.ai
- Open LM Studio en download een model via de ingebouwde modelbrowser.
- Start de lokale server (Tabblad Server → Start Server).
- LM Studio is standaard beschikbaar op
localhost:1234. Configureer indroid.yaml:
lm_studio:
base_url: "http://localhost:1234/v1"
Geen API-sleutel vereist.
Agent-configuratie
name: "local-agent"
model:
provider: "lm_studio"
name: "local-model" # Gebruik de model-identificatie die in LM Studio wordt getoond
max_tokens: 2048
temperature: 0.7
De model.name moet overeenkomen met het model dat in LM Studio is geladen. U kunt het huidige model controleren in het tabblad Server van LM Studio.
Opmerkingen
- LM Studio biedt een gebruiksvriendelijke grafische interface voor modelbeheer — handig als u de voorkeur geeft aan een visuele interface boven de CLI van Ollama.
- De OpenAI-compatibele API zorgt voor een naadloze integratie met Sinaptic® DROID+.
- Ondersteuning voor toolgebruik (function calling) hangt af van het model dat u laadt.
- LM Studio ondersteunt het GGUF-modelformaat. De meeste populaire open modellen zijn beschikbaar in GGUF.
- Als u Sinaptic® DROID+ in Docker draait, gebruik dan
host.docker.internal:1234om verbinding te maken met LM Studio op de host-machine.