본문으로 건너뛰기

LLM 프로바이더

Sinaptic® DROID+는 4개의 클라우드 서비스와 3개의 로컬 서비스를 포함하여 총 7개의 LLM 프로바이더를 기본으로 지원합니다. 모든 프로바이더는 모든 에디션(Community, Pro, Enterprise)에서 사용할 수 있습니다.

지원되는 프로바이더

프로바이더유형API 키 필요 여부기본 베이스 URL
OpenAI클라우드https://api.openai.com/v1
Anthropic클라우드https://api.anthropic.com
Google Gemini클라우드https://generativelanguage.googleapis.com/v1beta
Grok (xAI)클라우드https://api.x.ai/v1
Ollama로컬아니요http://localhost:11434/v1
LM Studio로컬아니요http://localhost:1234/v1
llama.cpp로컬아니요http://localhost:8080/v1

작동 원리

Sinaptic® DROID+는 클라이언트에 OpenAI 호환 API를 제공합니다. 내부적으로는 요청을 각 프로바이더의 형식으로 변환합니다. 이는 다음을 의미합니다.

  • 백엔드 모델이 무엇이든 관계없이 클라이언트 코드는 표준 OpenAI SDK를 사용할 수 있습니다.
  • 코드 수정 없이 YAML 설정만 변경하여 프로바이더를 전환할 수 있습니다.
  • 서로 다른 에이전트가 동시에 서로 다른 프로바이더를 사용할 수 있습니다.
클라이언트 (OpenAI SDK) → DROID+ API → [OpenAI | Anthropic | Gemini | Grok | Ollama | ...]

설정

droid.yaml에서 기본 프로바이더를 설정합니다.

llm:
provider: "openai" # 기본 프로바이더
api_key: "${OPENAI_API_KEY}"
default_model: "gpt-4o-mini"

추가 프로바이더도 함께 설정할 수 있습니다.

anthropic:
api_key: "${ANTHROPIC_API_KEY}"

gemini:
api_key: "${GEMINI_API_KEY}"

ollama:
base_url: "http://localhost:11434/v1"

에이전트별 모델 선택

각 에이전트는 설정된 어떤 프로바이더와 모델이든 사용할 수 있습니다.

# OpenAI를 사용하는 에이전트
name: "fast-agent"
model:
name: "gpt-4o-mini"

# Anthropic을 사용하는 에이전트
name: "smart-agent"
model:
provider: "anthropic"
name: "claude-sonnet-4-20250514"

# 로컬 Ollama를 사용하는 에이전트
name: "private-agent"
model:
provider: "ollama"
name: "llama3.2"

세 에이전트 모두 동일한 Sinaptic® DROID+ 인스턴스에서 실행되며, 동일한 API 엔드포인트를 통해 접근할 수 있습니다.

프로바이더 선택 가이드

사용 사례권장 사항
가장 빠른 시작OpenAI (gpt-4o-mini)
최상의 추론 품질Anthropic (claude-sonnet-4-20250514) 또는 OpenAI (gpt-4o)
무료 클라우드 APIGoogle Gemini (gemini-2.0-flash)
완전한 프라이버시 (클라우드 미사용)Ollama (llama3.2 모델 권장)
로컬 모델용 데스크톱 GUI 사용LM Studio
오버헤드가 적은 로컬 추론llama.cpp