Ollama en localhost
Partie théorique
Qu'est-ce qu'Ollama ?
Ollama est un outil qui permet de télécharger et exécuter des modèles de langage (LLM) directement sur votre machine, sans connexion internet et sans clé API.
Ollama fournit une API locale compatible avec le format OpenAI, ce qui le rend utilisable avec Claude Code exactement comme OpenRouter — en changeant simplement l'URL de l'API.
Avantages d'Ollama :
- Entièrement gratuit — pas de quota, pas de clé API
- Hors ligne — fonctionne sans connexion internet
- Privé — vos fichiers ne quittent jamais votre machine
- Pas de limite de requêtes — travaillez autant que vous voulez
Inconvénients :
- Nécessite un ordinateur puissant (GPU recommandé)
- Les modèles locaux sont plus petits que les modèles cloud
- Première utilisation lente (téléchargement du modèle)
Modèles compatibles avec Claude Code
Claude Code nécessite que le modèle supporte le tool use (appel de fonctions). Tous les modèles Ollama ne le supportent pas.
Sans support des tools, Claude Code ne peut pas exécuter d'actions (lire des fichiers, lancer des commandes). Choisissez un modèle avec le tag tools.
Modèles recommandés avec support tools :
| Modèle | Taille | Points forts |
|---|---|---|
qwen2.5-coder:7b | ~4 Go | Spécialisé code, très bon rapport qualité/taille |
qwen3:8b | ~5 Go | Modèle récent, bon raisonnement |
llama3.1:8b | ~5 Go | Polyvalent, bon général |
mistral:7b | ~4 Go | Rapide, efficace |
qwen2.5-coder:7b est le meilleur choix pour utiliser Claude Code localement : il est spécialisé pour le code et tient confortablement en RAM sur 16 Go de mémoire.
Le serveur Ollama
Ollama fonctionne comme un serveur local. Une fois démarrée, l'API est disponible sur :
http://localhost:11434/v1
Ce format est identique à l'API OpenAI, ce que Claude Code sait utiliser.
Configurer Claude Code avec Ollama
Deux variables d'environnement suffisent :
export ANTHROPIC_BASE_URL="http://localhost:11434/v1"
export ANTHROPIC_API_KEY="ollama"
La valeur "ollama" pour ANTHROPIC_API_KEY est une convention : Ollama n'a pas besoin de clé, mais Claude Code exige que la variable soit non vide.
Pour sélectionner le modèle à utiliser :
export ANTHROPIC_DEFAULT_SONNET_MODEL="qwen2.5-coder:7b"
Ou directement en ligne de commande :
claude --model "qwen2.5-coder:7b" "Explique ce code"
Exemple pratique
Session complète d'installation et de test
# 1. Installer Ollama (macOS)
brew install ollama
# 2. Demarrer le serveur Ollama en arriere-plan
ollama serve &
# 3. Telecharger un modele avec support tools (~4 Go)
ollama pull qwen2.5-coder:7b
# 4. Verifier que le modele est disponible
ollama list
# 5. Configurer Claude Code pour utiliser Ollama
export ANTHROPIC_BASE_URL="http://localhost:11434/v1"
export ANTHROPIC_API_KEY="ollama"
export ANTHROPIC_DEFAULT_SONNET_MODEL="qwen2.5-coder:7b"
# 6. Tester
claude "Ecris une fonction PHP qui retourne le carre d un nombre"
ollama serve & lance le serveur en arrière-plan. Vous pouvez aussi le lancer dans un terminal séparé sans le &.
Exemple de sortie après ollama list :
NAME ID SIZE MODIFIED
qwen2.5-coder:7b f2f5c7b1d3a2 4.7 GB 2 minutes ago
Comparaison OpenRouter vs Ollama
| Critère | OpenRouter | Ollama (local) |
|---|---|---|
| Modèles disponibles | 100+ dont GPT-4, Claude | Modèles open-source ~7-70B |
| Qualité des réponses | Excellente (grands modèles) | Bonne (modèles légers) |
| Connexion internet | Requise | Non requise |
| Confidentialité | Données envoyées au cloud | 100% local |
| Clé API | Requise | Non requise |
| Limite de requêtes | Oui (même en gratuit) | Aucune |
| Matériel requis | N'importe quel PC | GPU ou 16 Go RAM recommandés |
Test de mémorisation/compréhension
TP pour réfléchir et résoudre des problèmes
Configurer Claude Code avec Ollama en local
Dans ce TP, vous allez installer Ollama, télécharger un modèle compatible avec Claude Code, et configurer l'environnement pour l'utiliser.
1. Installer Ollama
Sur macOS (avec Homebrew) :
Sans Homebrew, téléchargez Ollama directement depuis https://ollama.com — un installateur graphique est disponible pour macOS et Windows.
2. Démarrez le serveur Ollama
Laissez ce terminal ouvert (ou lancez ollama serve & pour le mettre en arrière-plan). Le serveur doit rester actif pendant que vous utilisez Claude Code.
3. Téléchargez le modèle qwen2.5-coder:7b
Le téléchargement fait environ 4 Go. Assurez-vous d'avoir suffisamment d'espace disque et une connexion stable.
4. Vérifiez que le modèle est disponible
Vous devriez voir qwen2.5-coder:7b dans la liste avec sa taille (~4.7 Go).
5. Configurez les variables d'environnement
6. Rendez la configuration permanente dans ~/.zshrc
7. Testez avec Claude Code
Placez-vous dans un répertoire de projet et lancez Claude Code :
cd ~/Documents/mon_projet
claude "Liste les fichiers PHP de ce projet et explique leur role"
Si Claude Code répond en listant et expliquant vos fichiers, tout fonctionne. Si vous obtenez une erreur de connexion, vérifiez que ollama serve est bien en cours d'exécution.
Une solution
Vous devez être connecté pour voir le contenu.