Aller au contenu principal

OpenAI

OpenAI est le fournisseur de LLM par défaut dans Sinaptic® DROID+. Il fonctionne nativement avec n'importe quel modèle OpenAI, y compris GPT-4o, GPT-4o mini et les modèles de raisonnement de la série o.

Configuration

  1. Obtenez une clé API sur platform.openai.com
  2. Ajoutez-la à votre environnement ou à votre fichier .env :
export OPENAI_API_KEY=sk-...
  1. Configurez dans droid.yaml (c'est la configuration par défaut, vous n'aurez donc peut-être rien à changer) :
llm:
provider: "openai"
base_url: "https://api.openai.com/v1"
api_key: "${OPENAI_API_KEY}"
default_model: "gpt-4o-mini"

Configuration de l'agent

Utilisez n'importe quel modèle OpenAI dans la configuration de votre agent :

name: "my-agent"
model:
name: "gpt-4o-mini" # ou gpt-4o, o3-mini, etc.
max_tokens: 1024
temperature: 0.7

Modèles disponibles

ModèleIdéal pourContexte
gpt-4oRaisonnement complexe, multimodal128K
gpt-4o-miniRapide, rentable (recommandé par défaut)128K
o3-miniTâches de raisonnement128K
gpt-4-turboHérité, haute qualité128K

Consultez la liste des modèles d'OpenAI pour connaître les derniers modèles disponibles.

Surcharge par agent

Chaque agent peut utiliser un modèle différent en définissant model.name dans sa configuration. Le default_model global de droid.yaml est utilisé lorsqu'un agent n'en spécifie pas.

Azure OpenAI

Azure OpenAI utilise un format d'URL de base différent. Configurez-le comme un fournisseur personnalisé :

llm:
provider: "openai"
base_url: "https://VOTRE-RESSOURCE.openai.azure.com/openai/deployments/VOTRE-DEPLOIEMENT/v1"
api_key: "${AZURE_OPENAI_API_KEY}"
default_model: "gpt-4o"

Azure OpenAI est entièrement pris en charge dans les éditions Pro et Enterprise. Dans l'édition Community, vous pouvez l'utiliser via la configuration standard du fournisseur OpenAI.