Fournisseurs de LLM
Sinaptic® DROID+ prend en charge 7 fournisseurs de LLM nativement — 4 cloud et 3 locaux. Tous les fournisseurs sont disponibles dans chaque édition (Community, Pro, Enterprise).
Fournisseurs pris en charge
| Fournisseur | Type | Clé API requise | URL de base par défaut |
|---|---|---|---|
| OpenAI | Cloud | Oui | https://api.openai.com/v1 |
| Anthropic | Cloud | Oui | https://api.anthropic.com |
| Google Gemini | Cloud | Oui | https://generativelanguage.googleapis.com/v1beta |
| Grok (xAI) | Cloud | Oui | https://api.x.ai/v1 |
| Ollama | Local | Non | http://localhost:11434/v1 |
| LM Studio | Local | Non | http://localhost:1234/v1 |
| llama.cpp | Local | Non | http://localhost:8080/v1 |
Comment ça marche
Sinaptic® DROID+ expose une API compatible OpenAI à vos clients. En interne, il traduit les requêtes au format du fournisseur approprié. Cela signifie que :
- Votre code client utilise le SDK OpenAI standard, quel que soit le modèle backend utilisé.
- Vous pouvez changer de fournisseur en modifiant une configuration YAML — aucun changement de code n'est nécessaire.
- Différents agents peuvent utiliser différents fournisseurs simultanément.
Client (SDK OpenAI) → API DROID+ → [OpenAI | Anthropic | Gemini | Grok | Ollama | ...]
Configuration
Définissez le fournisseur principal dans droid.yaml :
llm:
provider: "openai" # Fournisseur par défaut
api_key: "${OPENAI_API_KEY}"
default_model: "gpt-4o-mini"
Configurez d'autres fournisseurs en parallèle :
anthropic:
api_key: "${ANTHROPIC_API_KEY}"
gemini:
api_key: "${GEMINI_API_KEY}"
ollama:
base_url: "http://localhost:11434/v1"
Sélection du modèle par agent
Chaque agent peut utiliser n'importe quel fournisseur et modèle configuré :
# Agent utilisant OpenAI
name: "fast-agent"
model:
name: "gpt-4o-mini"
# Agent utilisant Anthropic
name: "smart-agent"
model:
provider: "anthropic"
name: "claude-sonnet-4-20250514"
# Agent utilisant Ollama local
name: "private-agent"
model:
provider: "ollama"
name: "llama3.2"
Les trois agents s'exécutent dans la même instance Sinaptic® DROID+ et sont accessibles via le même point de terminaison API.
Choisir un fournisseur
| Cas d'utilisation | Recommandé |
|---|---|
| Démarrage rapide | OpenAI (gpt-4o-mini) |
| Meilleure qualité de raisonnement | Anthropic (claude-sonnet-4-20250514) ou OpenAI (gpt-4o) |
| API cloud gratuite | Google Gemini (gemini-2.0-flash) |
| Confidentialité totale (pas de cloud) | Ollama avec llama3.2 |
| GUI de bureau pour modèles locaux | LM Studio |
| Inférence locale ultra-légère | llama.cpp |