メインコンテンツまでスキップ

OpenAI

OpenAI は、Sinaptic® DROID+ のデフォルトの LLM プロバイダーです。GPT-4o、GPT-4o mini、および o シリーズの推論モデルを含む、すべての OpenAI モデルをそのまま使用できます。

セットアップ

  1. platform.openai.com から API キーを取得します。
  2. 環境変数または .env ファイルにキーを追加します。
export OPENAI_API_KEY=sk-...
  1. droid.yaml で設定します(これはデフォルト設定なので、変更の必要がない場合もあります)。
llm:
provider: "openai"
base_url: "https://api.openai.com/v1"
api_key: "${OPENAI_API_KEY}"
default_model: "gpt-4o-mini"

エージェント設定

エージェント設定で任意の OpenAI モデルを使用できます。

name: "my-agent"
model:
name: "gpt-4o-mini" # または gpt-4o、o3-mini など
max_tokens: 1024
temperature: 0.7

利用可能なモデル

モデル主な用途コンテキスト
gpt-4o複雑な推論、マルチモーダル128K
gpt-4o-mini高速、低コスト(推奨されるデフォルト)128K
o3-mini推論タスク128K
gpt-4-turboレガシー、高品質128K

最新の利用可能なモデルについては、OpenAI のモデルリストを確認してください。

エージェントごとの上書き

各エージェントは、設定ファイルの model.name を設定することで、個別に異なるモデルを使用できます。エージェントがモデルを指定していない場合は、droid.yaml のグローバルな default_model が使用されます。

Azure OpenAI

Azure OpenAI は、異なるベース URL 形式を使用します。カスタムプロバイダーとして以下のように設定してください。

llm:
provider: "openai"
base_url: "https://YOUR-RESOURCE.openai.azure.com/openai/deployments/YOUR-DEPLOYMENT/v1"
api_key: "${AZURE_OPENAI_API_KEY}"
default_model: "gpt-4o"

Azure OpenAI は、Pro および Enterprise エディションで完全にサポートされています。Community エディションでは、標準の OpenAI プロバイダー設定を介して使用できます。