Przejdź do głównej zawartości

LM Studio

Uruchamiaj agentów AI z lokalnymi modelami za pomocą LM Studio. LM Studio oferuje interfejs graficzny (GUI) do pobierania, zarządzania i udostępniania lokalnych modeli poprzez API kompatybilne z OpenAI.

Konfiguracja

  1. Pobierz LM Studio ze strony lmstudio.ai
  2. Otwórz LM Studio, pobierz model z wbudowanej przeglądarki modeli
  3. Uruchom lokalny serwer (Zakładka Server → Start Server)
  4. LM Studio domyślnie działa na localhost:1234. Skonfiguruj w droid.yaml:
lm_studio:
base_url: "http://localhost:1234/v1"

Klucz API nie jest wymagany.

Konfiguracja agenta

name: "local-agent"
model:
provider: "lm_studio"
name: "local-model" # Użyj identyfikatora modelu widocznego w LM Studio
max_tokens: 2048
temperature: 0.7

Wartość model.name powinna odpowiadać modelowi załadowanemu w LM Studio. Możesz sprawdzić aktualny model w zakładce Server w LM Studio.

Uwagi

  • LM Studio oferuje przyjazny interfejs graficzny do zarządzania modelami — przydatny, jeśli wolisz interfejs wizualny zamiast CLI Ollama.
  • API kompatybilne z OpenAI oznacza płynną współpracę z Sinaptic® DROID+.
  • Wsparcie dla narzędzi (wywoływanie funkcji) zależy od załadowanego modelu.
  • LM Studio wspiera format modeli GGUF. Większość popularnych otwartych modeli jest dostępna w formacie GGUF.
  • Jeśli Sinaptic® DROID+ działa w Dockerze, użyj host.docker.internal:1234, aby połączyć się z LM Studio na hoście.