Aller au contenu principal

LM Studio

Exécutez des agents IA avec des modèles locaux en utilisant LM Studio. LM Studio fournit une interface graphique (GUI) pour télécharger, gérer et servir des modèles locaux avec une API compatible OpenAI.

Configuration

  1. Téléchargez LM Studio depuis lmstudio.ai
  2. Ouvrez LM Studio, téléchargez un modèle via le navigateur de modèles intégré
  3. Démarrez le serveur local (onglet Server → Start Server)
  4. LM Studio sert sur localhost:1234 par défaut. Configurez dans droid.yaml :
lm_studio:
base_url: "http://localhost:1234/v1"

Aucune clé API n'est requise.

Configuration de l'agent

name: "local-agent"
model:
provider: "lm_studio"
name: "local-model" # Utilisez l'identifiant du modèle affiché dans LM Studio
max_tokens: 2048
temperature: 0.7

Le model.name doit correspondre au modèle chargé dans LM Studio. Vous pouvez vérifier le modèle actuel dans l'onglet Server de LM Studio.

Notes

  • LM Studio offre une interface graphique conviviale pour la gestion des modèles — utile si vous préférez une interface visuelle à la CLI d'Ollama.
  • L'API compatible OpenAI signifie qu'il fonctionne parfaitement avec Sinaptic® DROID+.
  • Le support de l'utilisation d'outils (appel de fonctions) dépend du modèle que vous chargez.
  • LM Studio supporte le format de modèle GGUF. La plupart des modèles ouverts populaires sont disponibles en GGUF.
  • Si vous exécutez Sinaptic® DROID+ dans Docker, utilisez host.docker.internal:1234 pour vous connecter à LM Studio sur la machine hôte.