OpenAI
OpenAI ist der Standard-LLM-Provider in Sinaptic® DROID+. Es funktioniert sofort mit jedem OpenAI-Modell, einschließlich GPT-4o, GPT-4o mini und den Reasoning-Modellen der o-Serie.
Einrichtung
- Holen Sie sich einen API-Key unter platform.openai.com
- Fügen Sie diesen zu Ihrer Umgebung oder Ihrer
.env-Datei hinzu:
export OPENAI_API_KEY=sk-...
- Konfigurieren Sie die
droid.yaml(dies ist der Standard, daher müssen Sie möglicherweise nichts ändern):
llm:
provider: "openai"
base_url: "https://api.openai.com/v1"
api_key: "${OPENAI_API_KEY}"
default_model: "gpt-4o-mini"
Agenten-Konfiguration
Verwenden Sie ein beliebiges OpenAI-Modell in Ihrer Agenten-Konfiguration:
name: "my-agent"
model:
name: "gpt-4o-mini" # oder gpt-4o, o3-mini, etc.
max_tokens: 1024
temperature: 0.7
Verfügbare Modelle
| Modell | Ideal für | Kontext |
|---|---|---|
gpt-4o | Komplexes Reasoning, Multimodal | 128K |
gpt-4o-mini | Schnell, kosteneffizient (empfohlener Standard) | 128K |
o3-mini | Reasoning-Aufgaben | 128K |
gpt-4-turbo | Legacy, hohe Qualität | 128K |
Besuchen Sie die OpenAI-Modellliste für die neuesten verfügbaren Modelle.
Überschreiben pro Agent
Jeder Agent kann ein anderes Modell verwenden, indem model.name in seiner Konfiguration gesetzt wird. Das globale default_model in der droid.yaml wird verwendet, wenn ein Agent kein spezifisches Modell angibt.
Azure OpenAI
Azure OpenAI verwendet ein anderes Format für die Base URL. Konfigurieren Sie es als benutzerdefinierten Provider:
llm:
provider: "openai"
base_url: "https://DEINE-RESSOURCE.openai.azure.com/openai/deployments/DEIN-DEPLOYMENT/v1"
api_key: "${AZURE_OPENAI_API_KEY}"
default_model: "gpt-4o"
Azure OpenAI wird in den Editionen Pro und Enterprise vollständig unterstützt. In der Community Edition können Sie es über die Standard-OpenAI-Provider-Konfiguration nutzen.