メインコンテンツまでスキップ

LLM プロバイダー

Sinaptic® DROID+ は、7 つの LLM プロバイダー(クラウド 4 つ、ローカル 3 つ)を標準でサポートしています。すべてのプロバイダーは、すべてのエディション(Community、Pro、Enterprise)で利用可能です。

サポートされているプロバイダー

プロバイダータイプAPI キーの必要性デフォルトのベース URL
OpenAIクラウドありhttps://api.openai.com/v1
Anthropicクラウドありhttps://api.anthropic.com
Google Geminiクラウドありhttps://generativelanguage.googleapis.com/v1beta
Grok (xAI)クラウドありhttps://api.x.ai/v1
Ollamaローカルなしhttp://localhost:11434/v1
LM Studioローカルなしhttp://localhost:1234/v1
llama.cppローカルなしhttp://localhost:8080/v1

仕組み

Sinaptic® DROID+ は、クライアントに対して OpenAI 互換 API を公開します。内部的には、リクエストを適切なプロバイダーの形式に変換します。これにより、以下のことが可能になります。

  • バックエンドでどのモデルが動作しているかに関わらず、クライアントコードで標準の OpenAI SDK を使用できます。
  • YAML 設定を変更するだけで、プロバイダーを切り替えることができます(コードの変更は不要です)。
  • 異なるエージェントが同時に異なるプロバイダーを使用できます。
クライアント (OpenAI SDK) → DROID+ API → [OpenAI | Anthropic | Gemini | Grok | Ollama | ...]

設定

droid.yaml でメインのプロバイダーを設定します。

llm:
provider: "openai" # デフォルトのプロバイダー
api_key: "${OPENAI_API_KEY}"
default_model: "gpt-4o-mini"

追加のプロバイダーも並行して設定可能です。

anthropic:
api_key: "${ANTHROPIC_API_KEY}"

gemini:
api_key: "${GEMINI_API_KEY}"

ollama:
base_url: "http://localhost:11434/v1"

エージェントごとのモデル選択

各エージェントは、設定された任意のプロバイダーとモデルを使用できます。

# OpenAI を使用するエージェント
name: "fast-agent"
model:
name: "gpt-4o-mini"

# Anthropic を使用するエージェント
name: "smart-agent"
model:
provider: "anthropic"
name: "claude-sonnet-4-20250514"

# ローカルの Ollama を使用するエージェント
name: "private-agent"
model:
provider: "ollama"
name: "llama3.2"

これら 3 つのエージェントはすべて同じ Sinaptic® DROID+ インスタンス内で動作し、同じ API エンドポイントを介してアクセスできます。

プロバイダーの選択ガイド

ユースケース推奨事項
素早く開始したい場合OpenAI (gpt-4o-mini)
推論品質を重視する場合Anthropic (claude-sonnet-4-20250514) または OpenAI (gpt-4o)
無料のクラウド API を使いたい場合Google Gemini (gemini-2.0-flash)
完全なプライバシー(クラウド不可)Ollama (llama3.2 など)
ローカルモデル用のデスクトップ GUI が欲しい場合LM Studio
最小限のオーバーヘッドでローカル実行したい場合llama.cpp