Saltar al contenido principal

Ollama

Ejecute agentes de IA con modelos locales utilizando Ollama. No se necesita clave API: todo se ejecuta en su propia máquina.

Configuración

  1. Instale Ollama: ollama.com/download
  2. Descargue un modelo:
ollama pull llama3.2
  1. Ollama se inicia automáticamente y escucha en localhost:11434. Configure en droid.yaml:
ollama:
base_url: "http://localhost:11434/v1"

No se requiere clave API.

Configuración del agente

name: "local-agent"
model:
provider: "ollama"
name: "llama3.2"
max_tokens: 2048
temperature: 0.7

Modelos populares

ModeloTamañoIdeal para
llama3.23BRápido, propósito general
llama3.1:8b8BBuen equilibrio calidad/velocidad
llama3.1:70b70BAlta calidad (necesita GPU)
mistral7BRápido, multilingüe
codellama7-34BGeneración de código
qwen2.57BMultilingüe

Consulte ollama.com/library para ver todos los modelos disponibles.

Redes de Docker

Si Sinaptic® DROID+ se ejecuta en Docker y Ollama se ejecuta en el host:

ollama:
base_url: "http://host.docker.internal:11434/v1"

Si ambos se ejecutan en Docker, utilice la red de Docker Compose:

services:
droid:
image: sinapticai/droid:latest
# ...
ollama:
image: ollama/ollama:latest
volumes:
- ollama-data:/root/.ollama

Luego, utilice http://ollama:11434/v1 como URL base.

Notas

  • Ollama ofrece una API compatible con OpenAI, por lo que se integra a la perfección con Sinaptic® DROID+.
  • El soporte para el uso de herramientas (llamada a funciones) depende del modelo. Llama 3.1+ y Mistral admiten la llamada a funciones.
  • El rendimiento depende totalmente de su hardware. Se recomienda una GPU para modelos superiores a 7B.
  • Los modelos se descargan una vez y Ollama los almacena localmente en caché.