LM Studio
LM Studio を使用して、ローカルモデルで AI エージェントを実行します。LM Studio は、OpenAI 互換の API を通じてローカルモデルをダウンロード、管理、および提供するためのグラフィカルユーザーインターフェース(GUI)を提供します。
セットアップ
- lmstudio.ai から LM Studio をダウンロードします。
- LM Studio を開き、内蔵のモデルブラウザからモデルをダウンロードします。
- ローカルサーバーを起動します(Server タブ → Start Server)。
- LM Studio はデフォルトで
localhost:1234でサービスを提供します。droid.yamlで設定します。
lm_studio:
base_url: "http://localhost:1234/v1"
API キーは必要ありません。
エージェント設定
name: "local-agent"
model:
provider: "lm_studio"
name: "local-model" # LM Studio に表示されているモデル識別子を使用します
max_tokens: 2048
temperature: 0.7
model.name は LM Studio にロードされているモデルと一致する必要があります。現在のモデルは LM Studio の Server タブで確認できます。
備考
- LM Studio はモデル管理のための使いやすい GUI を提供します。Ollama の CLI よりもビジュアルなインターフェースを好む場合に便利です。
- OpenAI 互換の API を提供しているため、Sinaptic® DROID+ とシームレスに統合できます。
- ツール使用(関数呼び出し)のサポートは、ロードしたモデルに依存します。
- LM Studio は GGUF モデル形式をサポートしています。ほとんどの人気のある公開モデルは GGUF 形式で利用可能です。
- Sinaptic® DROID+ を Docker で実行している場合、ホストマシンの LM Studio に接続するには
host.docker.internal:1234を使用してください。