Zum Hauptinhalt springen

LLM-Provider

Sinaptic® DROID+ unterstützt nativ 7 LLM-Provider — 4 Cloud-basierte und 3 lokale. Alle Provider sind in jeder Edition (Community, Pro, Enterprise) verfügbar.

Unterstützte Provider

ProviderTypAPI-Key erforderlichStandard Base URL
OpenAICloudJahttps://api.openai.com/v1
AnthropicCloudJahttps://api.anthropic.com
Google GeminiCloudJahttps://generativelanguage.googleapis.com/v1beta
Grok (xAI)CloudJahttps://api.x.ai/v1
OllamaLokalNeinhttp://localhost:11434/v1
LM StudioLokalNeinhttp://localhost:1234/v1
llama.cppLokalNeinhttp://localhost:8080/v1

Funktionsweise

Sinaptic® DROID+ stellt Ihren Clients eine OpenAI-kompatible API zur Verfügung. Intern übersetzt es die Anfragen in das entsprechende Format des Providers. Das bedeutet:

  • Ihr Client-Code verwendet das standardmäßige OpenAI-SDK, unabhängig davon, welches Backend-Modell läuft.
  • Sie können zwischen Providern wechseln, indem Sie eine YAML-Konfiguration ändern — es sind keine Code-Änderungen erforderlich.
  • Verschiedene Agenten können gleichzeitig unterschiedliche Provider nutzen.
Client (OpenAI SDK) → DROID+ API → [OpenAI | Anthropic | Gemini | Grok | Ollama | ...]

Konfiguration

Legen Sie den primären Provider in der droid.yaml fest:

llm:
provider: "openai" # Standard-Provider
api_key: "${OPENAI_API_KEY}"
default_model: "gpt-4o-mini"

Konfigurieren Sie zusätzliche Provider parallel dazu:

anthropic:
api_key: "${ANTHROPIC_API_KEY}"

gemini:
api_key: "${GEMINI_API_KEY}"

ollama:
base_url: "http://localhost:11434/v1"

Modellauswahl pro Agent

Jeder Agent kann jeden konfigurierten Provider und jedes Modell nutzen:

# Agent, der OpenAI nutzt
name: "fast-agent"
model:
name: "gpt-4o-mini"

# Agent, der Anthropic nutzt
name: "smart-agent"
model:
provider: "anthropic"
name: "claude-sonnet-4-20250514"

# Agent, der lokales Ollama nutzt
name: "private-agent"
model:
provider: "ollama"
name: "llama3.2"

Alle drei Agenten laufen in derselben Sinaptic® DROID+-Instanz und sind über denselben API-Endpunkt erreichbar.

Auswahl eines Providers

AnwendungsfallEmpfohlen
Schneller EinstiegOpenAI (gpt-4o-mini)
Beste DenkqualitätAnthropic (claude-sonnet-4-20250514) oder OpenAI (gpt-4o)
Kostenlose Cloud-APIGoogle Gemini (gemini-2.0-flash)
Volle Privatsphäre (keine Cloud)Ollama mit llama3.2
Desktop-GUI für lokale ModelleLM Studio
Lokale Inferenz mit minimalem Overheadllama.cpp