OpenAI
OpenAI は、Sinaptic® DROID+ のデフォルトの LLM プロバイダーです。GPT-4o、GPT-4o mini、および o シリーズの推論モデルを含む、すべての OpenAI モデルをそのまま使用できます。
セットアップ
- platform.openai.com から API キーを取得します。
- 環境変数または
.envファイルにキーを追加します。
export OPENAI_API_KEY=sk-...
droid.yamlで設定します(これはデフォルト設定なので、変更の必要がない場合もあります)。
llm:
provider: "openai"
base_url: "https://api.openai.com/v1"
api_key: "${OPENAI_API_KEY}"
default_model: "gpt-4o-mini"
エージェント設定
エージェント設定で任意の OpenAI モデルを使用できます。
name: "my-agent"
model:
name: "gpt-4o-mini" # または gpt-4o、o3-mini など
max_tokens: 1024
temperature: 0.7
利用可能なモデル
| モデル | 主な用途 | コンテキスト |
|---|---|---|
gpt-4o | 複雑な推論、マルチモーダル | 128K |
gpt-4o-mini | 高速、低コスト(推奨されるデフォルト) | 128K |
o3-mini | 推論タスク | 128K |
gpt-4-turbo | レガシー、高品質 | 128K |
最新の利用可能なモデルについては、OpenAI のモデルリストを確認してください。
エージェントごとの上書き
各エージェントは、設定ファイルの model.name を設定することで、個別に異なるモデルを使用できます。エージェントがモデルを指定していない場合は、droid.yaml のグローバルな default_model が使用されます。
Azure OpenAI
Azure OpenAI は、異なるベース URL 形式を使用します。カスタムプロバイダーとして以下のように設定してください。
llm:
provider: "openai"
base_url: "https://YOUR-RESOURCE.openai.azure.com/openai/deployments/YOUR-DEPLOYMENT/v1"
api_key: "${AZURE_OPENAI_API_KEY}"
default_model: "gpt-4o"
Azure OpenAI は、Pro および Enterprise エディションで完全にサポートされています。Community エディションでは、標準の OpenAI プロバイダー設定を介して使用できます。