LLM 프로바이더
Sinaptic® DROID+는 4개의 클라우드 서비스와 3개의 로컬 서비스를 포함하여 총 7개의 LLM 프로바이더를 기본으로 지원합니다. 모든 프로바이더는 모든 에디션(Community, Pro, Enterprise)에서 사용할 수 있습니다.
지원되는 프로바이더
| 프로바이더 | 유형 | API 키 필요 여부 | 기본 베이스 URL |
|---|---|---|---|
| OpenAI | 클라우드 | 예 | https://api.openai.com/v1 |
| Anthropic | 클라우드 | 예 | https://api.anthropic.com |
| Google Gemini | 클라우드 | 예 | https://generativelanguage.googleapis.com/v1beta |
| Grok (xAI) | 클라우드 | 예 | https://api.x.ai/v1 |
| Ollama | 로컬 | 아니요 | http://localhost:11434/v1 |
| LM Studio | 로컬 | 아니요 | http://localhost:1234/v1 |
| llama.cpp | 로컬 | 아니요 | http://localhost:8080/v1 |
작동 원리
Sinaptic® DROID+는 클라이언트에 OpenAI 호환 API를 제공합니다. 내부적으로는 요청을 각 프로바이더의 형식으로 변환합니다. 이는 다음을 의미합니다.
- 백엔드 모델이 무엇이든 관계없이 클라이언트 코드는 표준 OpenAI SDK를 사용할 수 있습니다.
- 코드 수정 없이 YAML 설정만 변경하여 프로바이더를 전환할 수 있습니다.
- 서로 다른 에이전트가 동시에 서로 다른 프로바이더를 사용할 수 있습니다.
클라이언트 (OpenAI SDK) → DROID+ API → [OpenAI | Anthropic | Gemini | Grok | Ollama | ...]
설정
droid.yaml에서 기본 프로바이더를 설정합니다.
llm:
provider: "openai" # 기본 프로바이더
api_key: "${OPENAI_API_KEY}"
default_model: "gpt-4o-mini"
추가 프로바이더도 함께 설정할 수 있습니다.
anthropic:
api_key: "${ANTHROPIC_API_KEY}"
gemini:
api_key: "${GEMINI_API_KEY}"
ollama:
base_url: "http://localhost:11434/v1"
에이전트별 모델 선택
각 에이전트는 설정된 어떤 프로바이더와 모델이든 사용할 수 있습니다.
# OpenAI를 사용하는 에이전트
name: "fast-agent"
model:
name: "gpt-4o-mini"
# Anthropic을 사용하는 에이전트
name: "smart-agent"
model:
provider: "anthropic"
name: "claude-sonnet-4-20250514"
# 로컬 Ollama를 사용하는 에이전트
name: "private-agent"
model:
provider: "ollama"
name: "llama3.2"
세 에이전트 모두 동일한 Sinaptic® DROID+ 인스턴스에서 실행되며, 동일한 API 엔드포인트를 통해 접근할 수 있습니다.
프로바이더 선택 가이드
| 사용 사례 | 권장 사항 |
|---|---|
| 가장 빠른 시작 | OpenAI (gpt-4o-mini) |
| 최상의 추론 품질 | Anthropic (claude-sonnet-4-20250514) 또는 OpenAI (gpt-4o) |
| 무료 클라우드 API | Google Gemini (gemini-2.0-flash) |
| 완전한 프라이버시 (클라우드 미사용) | Ollama (llama3.2 모델 권장) |
| 로컬 모델용 데스크톱 GUI 사용 | LM Studio |
| 오버헤드가 적은 로컬 추론 | llama.cpp |