メインコンテンツまでスキップ

LM Studio

LM Studio を使用して、ローカルモデルで AI エージェントを実行します。LM Studio は、OpenAI 互換の API を通じてローカルモデルをダウンロード、管理、および提供するためのグラフィカルユーザーインターフェース(GUI)を提供します。

セットアップ

  1. lmstudio.ai から LM Studio をダウンロードします。
  2. LM Studio を開き、内蔵のモデルブラウザからモデルをダウンロードします。
  3. ローカルサーバーを起動します(Server タブ → Start Server)。
  4. LM Studio はデフォルトで localhost:1234 でサービスを提供します。droid.yaml で設定します。
lm_studio:
base_url: "http://localhost:1234/v1"

API キーは必要ありません。

エージェント設定

name: "local-agent"
model:
provider: "lm_studio"
name: "local-model" # LM Studio に表示されているモデル識別子を使用します
max_tokens: 2048
temperature: 0.7

model.name は LM Studio にロードされているモデルと一致する必要があります。現在のモデルは LM Studio の Server タブで確認できます。

備考

  • LM Studio はモデル管理のための使いやすい GUI を提供します。Ollama の CLI よりもビジュアルなインターフェースを好む場合に便利です。
  • OpenAI 互換の API を提供しているため、Sinaptic® DROID+ とシームレスに統合できます。
  • ツール使用(関数呼び出し)のサポートは、ロードしたモデルに依存します。
  • LM Studio は GGUF モデル形式をサポートしています。ほとんどの人気のある公開モデルは GGUF 形式で利用可能です。
  • Sinaptic® DROID+ を Docker で実行している場合、ホストマシンの LM Studio に接続するには host.docker.internal:1234 を使用してください。