Перейти до основного вмісту

LM Studio

Запускайте AI-агентів з локальними моделями за допомогою LM Studio. LM Studio надає графічний інтерфейс (GUI) для завантаження, керування та обслуговування локальних моделей через API, сумісне з OpenAI.

Налаштування

  1. Завантажте LM Studio з lmstudio.ai
  2. Відкрийте LM Studio, завантажте модель через вбудований браузер моделей
  3. Запустіть локальний сервер (Вкладка Server → Start Server)
  4. LM Studio за замовчуванням працює на localhost:1234. Налаштуйте в droid.yaml:
lm_studio:
base_url: "http://localhost:1234/v1"

Ключ API не потрібен.

Конфігурація агента

name: "local-agent"
model:
provider: "lm_studio"
name: "local-model" # Використовуйте ідентифікатор моделі, показаний в LM Studio
max_tokens: 2048
temperature: 0.7

Значення model.name повинно відповідати моделі, завантаженій у LM Studio. Ви можете перевірити поточну модель на вкладці Server у LM Studio.

Примітки

  • LM Studio надає зручний графічний інтерфейс для керування моделями — це корисно, якщо ви віддаєте перевагу візуальному інтерфейсу замість CLI Ollama.
  • API, сумісне з OpenAI, означає безперешкодну роботу з Sinaptic® DROID+.
  • Підтримка використання інструментів (виклик функцій) залежить від завантаженої моделі.
  • LM Studio підтримує формат моделей GGUF. Більшість популярних відкритих моделей доступні в GGUF.
  • Якщо Sinaptic® DROID+ працює в Docker, використовуйте host.docker.internal:1234 для підключення до LM Studio на хост-машині.