OpenAI
OpenAI est le fournisseur de LLM par défaut dans Sinaptic® DROID+. Il fonctionne nativement avec n'importe quel modèle OpenAI, y compris GPT-4o, GPT-4o mini et les modèles de raisonnement de la série o.
Configuration
- Obtenez une clé API sur platform.openai.com
- Ajoutez-la à votre environnement ou à votre fichier
.env:
export OPENAI_API_KEY=sk-...
- Configurez dans
droid.yaml(c'est la configuration par défaut, vous n'aurez donc peut-être rien à changer) :
llm:
provider: "openai"
base_url: "https://api.openai.com/v1"
api_key: "${OPENAI_API_KEY}"
default_model: "gpt-4o-mini"
Configuration de l'agent
Utilisez n'importe quel modèle OpenAI dans la configuration de votre agent :
name: "my-agent"
model:
name: "gpt-4o-mini" # ou gpt-4o, o3-mini, etc.
max_tokens: 1024
temperature: 0.7
Modèles disponibles
| Modèle | Idéal pour | Contexte |
|---|---|---|
gpt-4o | Raisonnement complexe, multimodal | 128K |
gpt-4o-mini | Rapide, rentable (recommandé par défaut) | 128K |
o3-mini | Tâches de raisonnement | 128K |
gpt-4-turbo | Hérité, haute qualité | 128K |
Consultez la liste des modèles d'OpenAI pour connaître les derniers modèles disponibles.
Surcharge par agent
Chaque agent peut utiliser un modèle différent en définissant model.name dans sa configuration. Le default_model global de droid.yaml est utilisé lorsqu'un agent n'en spécifie pas.
Azure OpenAI
Azure OpenAI utilise un format d'URL de base différent. Configurez-le comme un fournisseur personnalisé :
llm:
provider: "openai"
base_url: "https://VOTRE-RESSOURCE.openai.azure.com/openai/deployments/VOTRE-DEPLOIEMENT/v1"
api_key: "${AZURE_OPENAI_API_KEY}"
default_model: "gpt-4o"
Azure OpenAI est entièrement pris en charge dans les éditions Pro et Enterprise. Dans l'édition Community, vous pouvez l'utiliser via la configuration standard du fournisseur OpenAI.