LLM-providers
Sinaptic® DROID+ ondersteunt standaard 7 LLM-providers — 4 in de cloud en 3 lokaal. Alle providers zijn beschikbaar in elke editie (Community, Pro, Enterprise).
Ondersteunde providers
| Provider | Type | API-sleutel vereist | Standaard base URL |
|---|---|---|---|
| OpenAI | Cloud | Ja | https://api.openai.com/v1 |
| Anthropic | Cloud | Ja | https://api.anthropic.com |
| Google Gemini | Cloud | Ja | https://generativelanguage.googleapis.com/v1beta |
| Grok (xAI) | Cloud | Ja | https://api.x.ai/v1 |
| Ollama | Lokaal | Nee | http://localhost:11434/v1 |
| LM Studio | Lokaal | Nee | http://localhost:1234/v1 |
| llama.cpp | Lokaal | Nee | http://localhost:8080/v1 |
Hoe het werkt
Sinaptic® DROID+ biedt een OpenAI-compatibele API aan uw clients. Intern vertaalt het verzoeken naar het juiste formaat van de provider. Dit betekent:
- Uw clientcode gebruikt de standaard OpenAI SDK, ongeacht welk backend-model er draait.
- U kunt tussen providers schakelen door een YAML-configuratie te wijzigen — er zijn geen codewijzigingen nodig.
- Verschillende agenten kunnen tegelijkertijd verschillende providers gebruiken.
Client (OpenAI SDK) → DROID+ API → [OpenAI | Anthropic | Gemini | Grok | Ollama | ...]
Configuratie
Stel de primaire provider in droid.yaml:
llm:
provider: "openai" # Standaard provider
api_key: "${OPENAI_API_KEY}"
default_model: "gpt-4o-mini"
Configureer daarnaast extra providers:
anthropic:
api_key: "${ANTHROPIC_API_KEY}"
gemini:
api_key: "${GEMINI_API_KEY}"
ollama:
base_url: "http://localhost:11434/v1"
Modelselectie per agent
Elke agent kan elke geconfigureerde provider en elk model gebruiken:
# Agent die OpenAI gebruikt
name: "fast-agent"
model:
name: "gpt-4o-mini"
# Agent die Anthropic gebruikt
name: "smart-agent"
model:
provider: "anthropic"
name: "claude-sonnet-4-20250514"
# Agent die lokaal Ollama gebruikt
name: "private-agent"
model:
provider: "ollama"
name: "llama3.2"
Alle drie de agenten draaien in dezelfde Sinaptic® DROID+-instantie en zijn toegankelijk via hetzelfde API-eindpunt.
Een provider kiezen
| Toepassing | Aanbevolen |
|---|---|
| Snel aan de slag | OpenAI (gpt-4o-mini) |
| Beste kwaliteit van redeneren | Anthropic (claude-sonnet-4-20250514) of OpenAI (gpt-4o) |
| Gratis cloud-API | Google Gemini (gemini-2.0-flash) |
| Volledige privacy (geen cloud) | Ollama met llama3.2 |
| Desktop-GUI voor lokale modellen | LM Studio |
| Lokale inferentie met minimale overhead | llama.cpp |