Aller au contenu principal

Fournisseurs de LLM

Sinaptic® DROID+ prend en charge 7 fournisseurs de LLM nativement — 4 cloud et 3 locaux. Tous les fournisseurs sont disponibles dans chaque édition (Community, Pro, Enterprise).

Fournisseurs pris en charge

FournisseurTypeClé API requiseURL de base par défaut
OpenAICloudOuihttps://api.openai.com/v1
AnthropicCloudOuihttps://api.anthropic.com
Google GeminiCloudOuihttps://generativelanguage.googleapis.com/v1beta
Grok (xAI)CloudOuihttps://api.x.ai/v1
OllamaLocalNonhttp://localhost:11434/v1
LM StudioLocalNonhttp://localhost:1234/v1
llama.cppLocalNonhttp://localhost:8080/v1

Comment ça marche

Sinaptic® DROID+ expose une API compatible OpenAI à vos clients. En interne, il traduit les requêtes au format du fournisseur approprié. Cela signifie que :

  • Votre code client utilise le SDK OpenAI standard, quel que soit le modèle backend utilisé.
  • Vous pouvez changer de fournisseur en modifiant une configuration YAML — aucun changement de code n'est nécessaire.
  • Différents agents peuvent utiliser différents fournisseurs simultanément.
Client (SDK OpenAI) → API DROID+ → [OpenAI | Anthropic | Gemini | Grok | Ollama | ...]

Configuration

Définissez le fournisseur principal dans droid.yaml :

llm:
provider: "openai" # Fournisseur par défaut
api_key: "${OPENAI_API_KEY}"
default_model: "gpt-4o-mini"

Configurez d'autres fournisseurs en parallèle :

anthropic:
api_key: "${ANTHROPIC_API_KEY}"

gemini:
api_key: "${GEMINI_API_KEY}"

ollama:
base_url: "http://localhost:11434/v1"

Sélection du modèle par agent

Chaque agent peut utiliser n'importe quel fournisseur et modèle configuré :

# Agent utilisant OpenAI
name: "fast-agent"
model:
name: "gpt-4o-mini"

# Agent utilisant Anthropic
name: "smart-agent"
model:
provider: "anthropic"
name: "claude-sonnet-4-20250514"

# Agent utilisant Ollama local
name: "private-agent"
model:
provider: "ollama"
name: "llama3.2"

Les trois agents s'exécutent dans la même instance Sinaptic® DROID+ et sont accessibles via le même point de terminaison API.

Choisir un fournisseur

Cas d'utilisationRecommandé
Démarrage rapideOpenAI (gpt-4o-mini)
Meilleure qualité de raisonnementAnthropic (claude-sonnet-4-20250514) ou OpenAI (gpt-4o)
API cloud gratuiteGoogle Gemini (gemini-2.0-flash)
Confidentialité totale (pas de cloud)Ollama avec llama3.2
GUI de bureau pour modèles locauxLM Studio
Inférence locale ultra-légèrellama.cpp