LLM プロバイダー
Sinaptic® DROID+ は、7 つの LLM プロバイダー(クラウド 4 つ、ローカル 3 つ)を標準でサポートしています。すべてのプロバイダーは、すべてのエディション(Community、Pro、Enterprise)で利用可能です。
サポートされているプロバイダー
| プロバイダー | タイプ | API キーの必要性 | デフォルトのベース URL |
|---|---|---|---|
| OpenAI | クラウド | あり | https://api.openai.com/v1 |
| Anthropic | クラウド | あり | https://api.anthropic.com |
| Google Gemini | クラウド | あり | https://generativelanguage.googleapis.com/v1beta |
| Grok (xAI) | クラウド | あり | https://api.x.ai/v1 |
| Ollama | ローカル | なし | http://localhost:11434/v1 |
| LM Studio | ローカル | なし | http://localhost:1234/v1 |
| llama.cpp | ローカル | なし | http://localhost:8080/v1 |
仕組み
Sinaptic® DROID+ は、クライアントに対して OpenAI 互換 API を公開します。内部的には、リクエストを適切なプロバイダーの形式に変換します。これにより、以下のことが可能になります。
- バックエンドでどのモデルが動作しているかに関わらず、クライアントコードで標準の OpenAI SDK を使用できます。
- YAML 設定を変更するだけで、プロバイダーを切り替えることができます(コードの変更は不要です)。
- 異なるエージェントが同時に異なるプロバイダーを使用できます。
クライアント (OpenAI SDK) → DROID+ API → [OpenAI | Anthropic | Gemini | Grok | Ollama | ...]
設定
droid.yaml でメインのプロバイダーを設定します。
llm:
provider: "openai" # デフォルトのプロバイダー
api_key: "${OPENAI_API_KEY}"
default_model: "gpt-4o-mini"
追加のプロバイダーも並行して設定可能です。
anthropic:
api_key: "${ANTHROPIC_API_KEY}"
gemini:
api_key: "${GEMINI_API_KEY}"
ollama:
base_url: "http://localhost:11434/v1"
エージェントごとのモデル選択
各エージェントは、設定された任意のプロバイダーとモデルを使用できます。
# OpenAI を使用するエージェント
name: "fast-agent"
model:
name: "gpt-4o-mini"
# Anthropic を使用するエージェント
name: "smart-agent"
model:
provider: "anthropic"
name: "claude-sonnet-4-20250514"
# ローカルの Ollama を使用するエージェント
name: "private-agent"
model:
provider: "ollama"
name: "llama3.2"
これら 3 つのエージェントはすべて同じ Sinaptic® DROID+ インスタンス内で動作し、同じ API エンドポイントを介してアクセスできます。
プロバイダーの選択ガイド
| ユースケース | 推奨事項 |
|---|---|
| 素早く開始したい場合 | OpenAI (gpt-4o-mini) |
| 推論品質を重視する場合 | Anthropic (claude-sonnet-4-20250514) または OpenAI (gpt-4o) |
| 無料のクラウド API を使いたい場合 | Google Gemini (gemini-2.0-flash) |
| 完全なプライバシー(クラウド不可) | Ollama (llama3.2 など) |
| ローカルモデル用のデスクトップ GUI が欲しい場合 | LM Studio |
| 最小限のオーバーヘッドでローカル実行したい場合 | llama.cpp |