Zum Hauptinhalt springen

OpenAI

OpenAI ist der Standard-LLM-Provider in Sinaptic® DROID+. Es funktioniert sofort mit jedem OpenAI-Modell, einschließlich GPT-4o, GPT-4o mini und den Reasoning-Modellen der o-Serie.

Einrichtung

  1. Holen Sie sich einen API-Key unter platform.openai.com
  2. Fügen Sie diesen zu Ihrer Umgebung oder Ihrer .env-Datei hinzu:
export OPENAI_API_KEY=sk-...
  1. Konfigurieren Sie die droid.yaml (dies ist der Standard, daher müssen Sie möglicherweise nichts ändern):
llm:
provider: "openai"
base_url: "https://api.openai.com/v1"
api_key: "${OPENAI_API_KEY}"
default_model: "gpt-4o-mini"

Agenten-Konfiguration

Verwenden Sie ein beliebiges OpenAI-Modell in Ihrer Agenten-Konfiguration:

name: "my-agent"
model:
name: "gpt-4o-mini" # oder gpt-4o, o3-mini, etc.
max_tokens: 1024
temperature: 0.7

Verfügbare Modelle

ModellIdeal fürKontext
gpt-4oKomplexes Reasoning, Multimodal128K
gpt-4o-miniSchnell, kosteneffizient (empfohlener Standard)128K
o3-miniReasoning-Aufgaben128K
gpt-4-turboLegacy, hohe Qualität128K

Besuchen Sie die OpenAI-Modellliste für die neuesten verfügbaren Modelle.

Überschreiben pro Agent

Jeder Agent kann ein anderes Modell verwenden, indem model.name in seiner Konfiguration gesetzt wird. Das globale default_model in der droid.yaml wird verwendet, wenn ein Agent kein spezifisches Modell angibt.

Azure OpenAI

Azure OpenAI verwendet ein anderes Format für die Base URL. Konfigurieren Sie es als benutzerdefinierten Provider:

llm:
provider: "openai"
base_url: "https://DEINE-RESSOURCE.openai.azure.com/openai/deployments/DEIN-DEPLOYMENT/v1"
api_key: "${AZURE_OPENAI_API_KEY}"
default_model: "gpt-4o"

Azure OpenAI wird in den Editionen Pro und Enterprise vollständig unterstützt. In der Community Edition können Sie es über die Standard-OpenAI-Provider-Konfiguration nutzen.