Przejdź do głównej zawartości

Dostawcy LLM

Sinaptic® DROID+ wspiera 7 dostawców LLM po wyjęciu z pudełka — 4 chmurowych i 3 lokalnych. Wszyscy dostawcy są dostępni w każdej edycji (Community, Pro, Enterprise).

Wspierani dostawcy

DostawcaTypKlucz API wymaganyDomyślny Base URL
OpenAIChmuraTakhttps://api.openai.com/v1
AnthropicChmuraTakhttps://api.anthropic.com
Google GeminiChmuraTakhttps://generativelanguage.googleapis.com/v1beta
Grok (xAI)ChmuraTakhttps://api.x.ai/v1
OllamaLokalnyNiehttp://localhost:11434/v1
LM StudioLokalnyNiehttp://localhost:1234/v1
llama.cppLokalnyNiehttp://localhost:8080/v1

Jak to działa

Sinaptic® DROID+ udostępnia API kompatybilne z OpenAI. Wewnętrznie tłumaczy on żądania na format odpowiedniego dostawcy. Oznacza to, że:

  • Twój kod kliencki używa standardowego OpenAI SDK niezależnie od tego, jaki model backendowy jest uruchomiony.
  • Możesz przełączać się między dostawcami zmieniając konfigurację YAML — bez zmian w kodzie.
  • Różni agenci mogą korzystać z różnych dostawców jednocześnie.
Klient (OpenAI SDK) → DROID+ API → [OpenAI | Anthropic | Gemini | Grok | Ollama | ...]

Konfiguracja

Ustaw głównego dostawcę w droid.yaml:

llm:
provider: "openai" # Domyślny dostawca
api_key: "${OPENAI_API_KEY}"
default_model: "gpt-4o-mini"

Skonfiguruj dodatkowych dostawców obok:

anthropic:
api_key: "${ANTHROPIC_API_KEY}"

gemini:
api_key: "${GEMINI_API_KEY}"

ollama:
base_url: "http://localhost:11434/v1"

Wybór modelu per agent

Każdy agent może korzystać z dowolnego skonfigurowanego dostawcy i modelu:

# Agent używający OpenAI
name: "fast-agent"
model:
name: "gpt-4o-mini"

# Agent używający Anthropic
name: "smart-agent"
model:
provider: "anthropic"
name: "claude-sonnet-4-20250514"

# Agent używający lokalnego Ollama
name: "private-agent"
model:
provider: "ollama"
name: "llama3.2"

Wszyscy trzej agenci działają w tej samej instancji Sinaptic® DROID+ i są dostępni przez ten sam punkt końcowy API.

Wybór dostawcy

Przypadek użyciaZalecane
Szybki startOpenAI (gpt-4o-mini)
Najlepsza jakość rozumowaniaAnthropic (claude-sonnet-4-20250514) lub OpenAI (gpt-4o)
Darmowe API chmuroweGoogle Gemini (gemini-2.0-flash)
Pełna prywatność (brak chmury)Ollama z llama3.2
GUI dla modeli lokalnychLM Studio
Minimalne obciążenie przy lokalnej inferencjillama.cpp