LM Studio
Запускайте AI-агентів з локальними моделями за допомогою LM Studio. LM Studio надає графічний інтерфейс (GUI) для завантаження, керування та обслуговування локальних моделей через API, сумісне з OpenAI.
Налаштування
- Завантажте LM Studio з lmstudio.ai
- Відкрийте LM Studio, завантажте модель через вбудований браузер моделей
- Запустіть локальний сервер (Вкладка Server → Start Server)
- LM Studio за замовчуванням працює на
localhost:1234. Налаштуйте вdroid.yaml:
lm_studio:
base_url: "http://localhost:1234/v1"
Ключ API не потрібен.
Конфігурація агента
name: "local-agent"
model:
provider: "lm_studio"
name: "local-model" # Використовуйте ідентифікатор моделі, показаний в LM Studio
max_tokens: 2048
temperature: 0.7
Значення model.name повинно відповідати моделі, завантаженій у LM Studio. Ви можете перевірити поточну модель на вкладці Server у LM Studio.
Примітки
- LM Studio надає зручний графічний інтерфейс для керування моделями — це корисно, якщо ви віддаєте перевагу візуальному інтерфейсу замість CLI Ollama.
- API, сумісне з OpenAI, означає безперешкодну роботу з Sinaptic® DROID+.
- Підтримка використання інструментів (виклик функцій) залежить від завантаженої моделі.
- LM Studio підтримує формат моделей GGUF. Більшість популярних відкритих моделей доступні в GGUF.
- Якщо Sinaptic® DROID+ працює в Docker, використовуйте
host.docker.internal:1234для підключення до LM Studio на хост-машині.