Aller au contenu principal

Ollama

Exécutez des agents IA avec des modèles locaux en utilisant Ollama. Aucune clé API n'est requise — tout fonctionne sur votre propre machine.

Configuration

  1. Installez Ollama : ollama.com/download
  2. Téléchargez un modèle (pull) :
ollama pull llama3.2
  1. Ollama démarre automatiquement et écoute sur localhost:11434. Configurez dans droid.yaml :
ollama:
base_url: "http://localhost:11434/v1"

Aucune clé API n'est requise.

Configuration de l'agent

name: "local-agent"
model:
provider: "ollama"
name: "llama3.2"
max_tokens: 2048
temperature: 0.7

Modèles populaires

ModèleTailleIdéal pour
llama3.23BRapide, polyvalent
llama3.1:8b8BBon équilibre qualité/vitesse
llama3.1:70b70BHaute qualité (nécessite un GPU)
mistral7BRapide, multilingue
codellama7-34BGénération de code
qwen2.57BMultilingue

Consultez ollama.com/library pour voir tous les modèles disponibles.

Mise en réseau Docker

Si Sinaptic® DROID+ fonctionne dans Docker et Ollama sur l'hôte :

ollama:
base_url: "http://host.docker.internal:11434/v1"

Si les deux fonctionnent dans Docker, utilisez la mise en réseau Docker Compose :

services:
droid:
image: sinapticai/droid:latest
# ...
ollama:
image: ollama/ollama:latest
volumes:
- ollama-data:/root/.ollama

Ensuite, utilisez http://ollama:11434/v1 comme URL de base.

Remarques

  • Ollama propose une API compatible OpenAI, il s'intègre donc parfaitement à Sinaptic® DROID+.
  • La prise en charge de l'utilisation d'outils (appel de fonctions) dépend du modèle. Llama 3.1+ et Mistral prennent en charge l'appel de fonctions.
  • Les performances dépendent entièrement de votre matériel. Un GPU est recommandé pour les modèles supérieurs à 7B.
  • Les modèles sont téléchargés une seule fois et mis en cache localement par Ollama.