Dostawcy LLM
Sinaptic® DROID+ wspiera 7 dostawców LLM po wyjęciu z pudełka — 4 chmurowych i 3 lokalnych. Wszyscy dostawcy są dostępni w każdej edycji (Community, Pro, Enterprise).
Wspierani dostawcy
| Dostawca | Typ | Klucz API wymagany | Domyślny Base URL |
|---|---|---|---|
| OpenAI | Chmura | Tak | https://api.openai.com/v1 |
| Anthropic | Chmura | Tak | https://api.anthropic.com |
| Google Gemini | Chmura | Tak | https://generativelanguage.googleapis.com/v1beta |
| Grok (xAI) | Chmura | Tak | https://api.x.ai/v1 |
| Ollama | Lokalny | Nie | http://localhost:11434/v1 |
| LM Studio | Lokalny | Nie | http://localhost:1234/v1 |
| llama.cpp | Lokalny | Nie | http://localhost:8080/v1 |
Jak to działa
Sinaptic® DROID+ udostępnia API kompatybilne z OpenAI. Wewnętrznie tłumaczy on żądania na format odpowiedniego dostawcy. Oznacza to, że:
- Twój kod kliencki używa standardowego OpenAI SDK niezależnie od tego, jaki model backendowy jest uruchomiony.
- Możesz przełączać się między dostawcami zmieniając konfigurację YAML — bez zmian w kodzie.
- Różni agenci mogą korzystać z różnych dostawców jednocześnie.
Klient (OpenAI SDK) → DROID+ API → [OpenAI | Anthropic | Gemini | Grok | Ollama | ...]
Konfiguracja
Ustaw głównego dostawcę w droid.yaml:
llm:
provider: "openai" # Domyślny dostawca
api_key: "${OPENAI_API_KEY}"
default_model: "gpt-4o-mini"
Skonfiguruj dodatkowych dostawców obok:
anthropic:
api_key: "${ANTHROPIC_API_KEY}"
gemini:
api_key: "${GEMINI_API_KEY}"
ollama:
base_url: "http://localhost:11434/v1"
Wybór modelu per agent
Każdy agent może korzystać z dowolnego skonfigurowanego dostawcy i modelu:
# Agent używający OpenAI
name: "fast-agent"
model:
name: "gpt-4o-mini"
# Agent używający Anthropic
name: "smart-agent"
model:
provider: "anthropic"
name: "claude-sonnet-4-20250514"
# Agent używający lokalnego Ollama
name: "private-agent"
model:
provider: "ollama"
name: "llama3.2"
Wszyscy trzej agenci działają w tej samej instancji Sinaptic® DROID+ i są dostępni przez ten sam punkt końcowy API.
Wybór dostawcy
| Przypadek użycia | Zalecane |
|---|---|
| Szybki start | OpenAI (gpt-4o-mini) |
| Najlepsza jakość rozumowania | Anthropic (claude-sonnet-4-20250514) lub OpenAI (gpt-4o) |
| Darmowe API chmurowe | Google Gemini (gemini-2.0-flash) |
| Pełna prywatność (brak chmury) | Ollama z llama3.2 |
| GUI dla modeli lokalnych | LM Studio |
| Minimalne obciążenie przy lokalnej inferencji | llama.cpp |