Saltar al contenido principal

Proveedores de LLM

Sinaptic® DROID+ es compatible con 7 proveedores de LLM de forma nativa: 4 en la nube y 3 locales. Todos los proveedores están disponibles en todas las ediciones (Community, Pro, Enterprise).

Proveedores compatibles

ProveedorTipoClave API requeridaURL base por defecto
OpenAINubehttps://api.openai.com/v1
AnthropicNubehttps://api.anthropic.com
Google GeminiNubehttps://generativelanguage.googleapis.com/v1beta
Grok (xAI)Nubehttps://api.x.ai/v1
OllamaLocalNohttp://localhost:11434/v1
LM StudioLocalNohttp://localhost:1234/v1
llama.cppLocalNohttp://localhost:8080/v1

Cómo funciona

Sinaptic® DROID+ expone una API compatible con OpenAI a sus clientes. Internamente, traduce las solicitudes al formato del proveedor correspondiente. Esto significa que:

  • El código de su cliente utiliza el SDK estándar de OpenAI, independientemente del modelo de backend que se esté ejecutando.
  • Puede cambiar de proveedor modificando una configuración YAML, sin cambios en el código.
  • Diferentes agentes pueden utilizar diferentes proveedores simultáneamente.
Cliente (SDK de OpenAI) → API de DROID+ → [OpenAI | Anthropic | Gemini | Grok | Ollama | ...]

Configuración

Establezca el proveedor principal en droid.yaml:

llm:
provider: "openai" # Proveedor por defecto
api_key: "${OPENAI_API_KEY}"
default_model: "gpt-4o-mini"

Configure proveedores adicionales de forma paralela:

anthropic:
api_key: "${ANTHROPIC_API_KEY}"

gemini:
api_key: "${GEMINI_API_KEY}"

ollama:
base_url: "http://localhost:11434/v1"

Selección de modelo por agente

Cada agente puede utilizar cualquier proveedor y modelo configurado:

# Agente que usa OpenAI
name: "fast-agent"
model:
name: "gpt-4o-mini"

# Agente que usa Anthropic
name: "smart-agent"
model:
provider: "anthropic"
name: "claude-sonnet-4-20250514"

# Agente que usa Ollama local
name: "private-agent"
model:
provider: "ollama"
name: "llama3.2"

Los tres agentes se ejecutan en la misma instancia de Sinaptic® DROID+ y son accesibles a través del mismo endpoint de la API.

Elegir un proveedor

Caso de usoRecomendado
Empezar rápidamenteOpenAI (gpt-4o-mini)
Mejor calidad de razonamientoAnthropic (claude-sonnet-4-20250514) u OpenAI (gpt-4o)
API en la nube gratuitaGoogle Gemini (gemini-2.0-flash)
Privacidad total (sin nube)Ollama con llama3.2
GUI de escritorio para modelos localesLM Studio
Inferencia local con mínima sobrecargallama.cpp