본문으로 건너뛰기

LM Studio

LM Studio를 사용하여 로컬 모델로 AI 에이전트를 실행하세요. LM Studio는 OpenAI와 호환되는 API를 통해 로컬 모델을 다운로드, 관리 및 서비스할 수 있는 그래픽 사용자 인터페이스(GUI)를 제공합니다.

설정

  1. lmstudio.ai에서 LM Studio를 다운로드합니다.
  2. LM Studio를 열고 내장된 모델 브라우저에서 모델을 다운로드합니다.
  3. 로컬 서버를 시작합니다 (Server 탭 → Start Server).
  4. LM Studio는 기본적으로 localhost:1234에서 서비스됩니다. droid.yaml에서 설정하세요.
lm_studio:
base_url: "http://localhost:1234/v1"

API 키는 필요하지 않습니다.

에이전트 설정

name: "local-agent"
model:
provider: "lm_studio"
name: "local-model" # LM Studio에 표시된 모델 식별자를 사용하세요
max_tokens: 2048
temperature: 0.7

model.name은 LM Studio에 로드된 모델과 일치해야 합니다. 현재 모델은 LM Studio의 Server 탭에서 확인할 수 있습니다.

참고 사항

  • LM Studio는 모델 관리를 위한 친숙한 GUI를 제공합니다. Ollama의 CLI보다 시각적인 인터페이스를 선호하는 경우 유용합니다.
  • OpenAI와 호환되는 API를 제공하므로 Sinaptic® DROID+와 원활하게 연동됩니다.
  • 도구 사용(함수 호출) 지원 여부는 로드한 모델에 따라 다릅니다.
  • LM Studio는 GGUF 모델 형식을 지원합니다. 대부분의 인기 있는 공개 모델들이 GGUF 형식으로 제공됩니다.
  • Sinaptic® DROID+를 Docker에서 실행하는 경우, 호스트 머신의 LM Studio에 연결하려면 host.docker.internal:1234를 사용하세요.