Proveedores de LLM
Sinaptic® DROID+ es compatible con 7 proveedores de LLM de forma nativa: 4 en la nube y 3 locales. Todos los proveedores están disponibles en todas las ediciones (Community, Pro, Enterprise).
Proveedores compatibles
| Proveedor | Tipo | Clave API requerida | URL base por defecto |
|---|---|---|---|
| OpenAI | Nube | Sí | https://api.openai.com/v1 |
| Anthropic | Nube | Sí | https://api.anthropic.com |
| Google Gemini | Nube | Sí | https://generativelanguage.googleapis.com/v1beta |
| Grok (xAI) | Nube | Sí | https://api.x.ai/v1 |
| Ollama | Local | No | http://localhost:11434/v1 |
| LM Studio | Local | No | http://localhost:1234/v1 |
| llama.cpp | Local | No | http://localhost:8080/v1 |
Cómo funciona
Sinaptic® DROID+ expone una API compatible con OpenAI a sus clientes. Internamente, traduce las solicitudes al formato del proveedor correspondiente. Esto significa que:
- El código de su cliente utiliza el SDK estándar de OpenAI, independientemente del modelo de backend que se esté ejecutando.
- Puede cambiar de proveedor modificando una configuración YAML, sin cambios en el código.
- Diferentes agentes pueden utilizar diferentes proveedores simultáneamente.
Cliente (SDK de OpenAI) → API de DROID+ → [OpenAI | Anthropic | Gemini | Grok | Ollama | ...]
Configuración
Establezca el proveedor principal en droid.yaml:
llm:
provider: "openai" # Proveedor por defecto
api_key: "${OPENAI_API_KEY}"
default_model: "gpt-4o-mini"
Configure proveedores adicionales de forma paralela:
anthropic:
api_key: "${ANTHROPIC_API_KEY}"
gemini:
api_key: "${GEMINI_API_KEY}"
ollama:
base_url: "http://localhost:11434/v1"
Selección de modelo por agente
Cada agente puede utilizar cualquier proveedor y modelo configurado:
# Agente que usa OpenAI
name: "fast-agent"
model:
name: "gpt-4o-mini"
# Agente que usa Anthropic
name: "smart-agent"
model:
provider: "anthropic"
name: "claude-sonnet-4-20250514"
# Agente que usa Ollama local
name: "private-agent"
model:
provider: "ollama"
name: "llama3.2"
Los tres agentes se ejecutan en la misma instancia de Sinaptic® DROID+ y son accesibles a través del mismo endpoint de la API.
Elegir un proveedor
| Caso de uso | Recomendado |
|---|---|
| Empezar rápidamente | OpenAI (gpt-4o-mini) |
| Mejor calidad de razonamiento | Anthropic (claude-sonnet-4-20250514) u OpenAI (gpt-4o) |
| API en la nube gratuita | Google Gemini (gemini-2.0-flash) |
| Privacidad total (sin nube) | Ollama con llama3.2 |
| GUI de escritorio para modelos locales | LM Studio |
| Inferencia local con mínima sobrecarga | llama.cpp |