LLM-Provider
Sinaptic® DROID+ unterstützt nativ 7 LLM-Provider — 4 Cloud-basierte und 3 lokale. Alle Provider sind in jeder Edition (Community, Pro, Enterprise) verfügbar.
Unterstützte Provider
| Provider | Typ | API-Key erforderlich | Standard Base URL |
|---|---|---|---|
| OpenAI | Cloud | Ja | https://api.openai.com/v1 |
| Anthropic | Cloud | Ja | https://api.anthropic.com |
| Google Gemini | Cloud | Ja | https://generativelanguage.googleapis.com/v1beta |
| Grok (xAI) | Cloud | Ja | https://api.x.ai/v1 |
| Ollama | Lokal | Nein | http://localhost:11434/v1 |
| LM Studio | Lokal | Nein | http://localhost:1234/v1 |
| llama.cpp | Lokal | Nein | http://localhost:8080/v1 |
Funktionsweise
Sinaptic® DROID+ stellt Ihren Clients eine OpenAI-kompatible API zur Verfügung. Intern übersetzt es die Anfragen in das entsprechende Format des Providers. Das bedeutet:
- Ihr Client-Code verwendet das standardmäßige OpenAI-SDK, unabhängig davon, welches Backend-Modell läuft.
- Sie können zwischen Providern wechseln, indem Sie eine YAML-Konfiguration ändern — es sind keine Code-Änderungen erforderlich.
- Verschiedene Agenten können gleichzeitig unterschiedliche Provider nutzen.
Client (OpenAI SDK) → DROID+ API → [OpenAI | Anthropic | Gemini | Grok | Ollama | ...]
Konfiguration
Legen Sie den primären Provider in der droid.yaml fest:
llm:
provider: "openai" # Standard-Provider
api_key: "${OPENAI_API_KEY}"
default_model: "gpt-4o-mini"
Konfigurieren Sie zusätzliche Provider parallel dazu:
anthropic:
api_key: "${ANTHROPIC_API_KEY}"
gemini:
api_key: "${GEMINI_API_KEY}"
ollama:
base_url: "http://localhost:11434/v1"
Modellauswahl pro Agent
Jeder Agent kann jeden konfigurierten Provider und jedes Modell nutzen:
# Agent, der OpenAI nutzt
name: "fast-agent"
model:
name: "gpt-4o-mini"
# Agent, der Anthropic nutzt
name: "smart-agent"
model:
provider: "anthropic"
name: "claude-sonnet-4-20250514"
# Agent, der lokales Ollama nutzt
name: "private-agent"
model:
provider: "ollama"
name: "llama3.2"
Alle drei Agenten laufen in derselben Sinaptic® DROID+-Instanz und sind über denselben API-Endpunkt erreichbar.
Auswahl eines Providers
| Anwendungsfall | Empfohlen |
|---|---|
| Schneller Einstieg | OpenAI (gpt-4o-mini) |
| Beste Denkqualität | Anthropic (claude-sonnet-4-20250514) oder OpenAI (gpt-4o) |
| Kostenlose Cloud-API | Google Gemini (gemini-2.0-flash) |
| Volle Privatsphäre (keine Cloud) | Ollama mit llama3.2 |
| Desktop-GUI für lokale Modelle | LM Studio |
| Lokale Inferenz mit minimalem Overhead | llama.cpp |