LM Studio
Uruchamiaj agentów AI z lokalnymi modelami za pomocą LM Studio. LM Studio oferuje interfejs graficzny (GUI) do pobierania, zarządzania i udostępniania lokalnych modeli poprzez API kompatybilne z OpenAI.
Konfiguracja
- Pobierz LM Studio ze strony lmstudio.ai
- Otwórz LM Studio, pobierz model z wbudowanej przeglądarki modeli
- Uruchom lokalny serwer (Zakładka Server → Start Server)
- LM Studio domyślnie działa na
localhost:1234. Skonfiguruj wdroid.yaml:
lm_studio:
base_url: "http://localhost:1234/v1"
Klucz API nie jest wymagany.
Konfiguracja agenta
name: "local-agent"
model:
provider: "lm_studio"
name: "local-model" # Użyj identyfikatora modelu widocznego w LM Studio
max_tokens: 2048
temperature: 0.7
Wartość model.name powinna odpowiadać modelowi załadowanemu w LM Studio. Możesz sprawdzić aktualny model w zakładce Server w LM Studio.
Uwagi
- LM Studio oferuje przyjazny interfejs graficzny do zarządzania modelami — przydatny, jeśli wolisz interfejs wizualny zamiast CLI Ollama.
- API kompatybilne z OpenAI oznacza płynną współpracę z Sinaptic® DROID+.
- Wsparcie dla narzędzi (wywoływanie funkcji) zależy od załadowanego modelu.
- LM Studio wspiera format modeli GGUF. Większość popularnych otwartych modeli jest dostępna w formacie GGUF.
- Jeśli Sinaptic® DROID+ działa w Dockerze, użyj
host.docker.internal:1234, aby połączyć się z LM Studio na hoście.