Aller au contenu principal

Ollama en localhost

Partie théorique

Qu'est-ce qu'Ollama ?

Ollama est un outil qui permet de télécharger et exécuter des modèles de langage (LLM) directement sur votre machine, sans connexion internet et sans clé API.

info

Ollama fournit une API locale compatible avec le format OpenAI, ce qui le rend utilisable avec Claude Code exactement comme OpenRouter — en changeant simplement l'URL de l'API.

Avantages d'Ollama :

  • Entièrement gratuit — pas de quota, pas de clé API
  • Hors ligne — fonctionne sans connexion internet
  • Privé — vos fichiers ne quittent jamais votre machine
  • Pas de limite de requêtes — travaillez autant que vous voulez

Inconvénients :

  • Nécessite un ordinateur puissant (GPU recommandé)
  • Les modèles locaux sont plus petits que les modèles cloud
  • Première utilisation lente (téléchargement du modèle)

Modèles compatibles avec Claude Code

Claude Code nécessite que le modèle supporte le tool use (appel de fonctions). Tous les modèles Ollama ne le supportent pas.

attention

Sans support des tools, Claude Code ne peut pas exécuter d'actions (lire des fichiers, lancer des commandes). Choisissez un modèle avec le tag tools.

Modèles recommandés avec support tools :

ModèleTaillePoints forts
qwen2.5-coder:7b~4 GoSpécialisé code, très bon rapport qualité/taille
qwen3:8b~5 GoModèle récent, bon raisonnement
llama3.1:8b~5 GoPolyvalent, bon général
mistral:7b~4 GoRapide, efficace
astuce

qwen2.5-coder:7b est le meilleur choix pour utiliser Claude Code localement : il est spécialisé pour le code et tient confortablement en RAM sur 16 Go de mémoire.


Le serveur Ollama

Ollama fonctionne comme un serveur local. Une fois démarrée, l'API est disponible sur :

http://localhost:11434/v1

Ce format est identique à l'API OpenAI, ce que Claude Code sait utiliser.


Configurer Claude Code avec Ollama

Deux variables d'environnement suffisent :

export ANTHROPIC_BASE_URL="http://localhost:11434/v1"
export ANTHROPIC_API_KEY="ollama"
remarque

La valeur "ollama" pour ANTHROPIC_API_KEY est une convention : Ollama n'a pas besoin de clé, mais Claude Code exige que la variable soit non vide.

Pour sélectionner le modèle à utiliser :

export ANTHROPIC_DEFAULT_SONNET_MODEL="qwen2.5-coder:7b"

Ou directement en ligne de commande :

claude --model "qwen2.5-coder:7b" "Explique ce code"

Exemple pratique

Session complète d'installation et de test

# 1. Installer Ollama (macOS)
brew install ollama

# 2. Demarrer le serveur Ollama en arriere-plan
ollama serve &

# 3. Telecharger un modele avec support tools (~4 Go)
ollama pull qwen2.5-coder:7b

# 4. Verifier que le modele est disponible
ollama list

# 5. Configurer Claude Code pour utiliser Ollama
export ANTHROPIC_BASE_URL="http://localhost:11434/v1"
export ANTHROPIC_API_KEY="ollama"
export ANTHROPIC_DEFAULT_SONNET_MODEL="qwen2.5-coder:7b"

# 6. Tester
claude "Ecris une fonction PHP qui retourne le carre d un nombre"
remarque

ollama serve & lance le serveur en arrière-plan. Vous pouvez aussi le lancer dans un terminal séparé sans le &.

Exemple de sortie après ollama list :

NAME ID SIZE MODIFIED
qwen2.5-coder:7b f2f5c7b1d3a2 4.7 GB 2 minutes ago

Comparaison OpenRouter vs Ollama

CritèreOpenRouterOllama (local)
Modèles disponibles100+ dont GPT-4, ClaudeModèles open-source ~7-70B
Qualité des réponsesExcellente (grands modèles)Bonne (modèles légers)
Connexion internetRequiseNon requise
ConfidentialitéDonnées envoyées au cloud100% local
Clé APIRequiseNon requise
Limite de requêtesOui (même en gratuit)Aucune
Matériel requisN'importe quel PCGPU ou 16 Go RAM recommandés

Test de mémorisation/compréhension


Sur quel port Ollama expose-t-il son API par défaut ?


Pourquoi doit-on mettre une valeur non vide pour ANTHROPIC_API_KEY avec Ollama ?


Quelle fonctionnalité est indispensable pour qu'un modèle fonctionne avec Claude Code ?


Quelle commande télécharge un modèle Ollama ?


Quel est le principal avantage d'Ollama par rapport à OpenRouter ?



TP pour réfléchir et résoudre des problèmes

Configurer Claude Code avec Ollama en local

Dans ce TP, vous allez installer Ollama, télécharger un modèle compatible avec Claude Code, et configurer l'environnement pour l'utiliser.


1. Installer Ollama

Sur macOS (avec Homebrew) :

astuce

Sans Homebrew, téléchargez Ollama directement depuis https://ollama.com — un installateur graphique est disponible pour macOS et Windows.


2. Démarrez le serveur Ollama

remarque

Laissez ce terminal ouvert (ou lancez ollama serve & pour le mettre en arrière-plan). Le serveur doit rester actif pendant que vous utilisez Claude Code.


3. Téléchargez le modèle qwen2.5-coder:7b

attention

Le téléchargement fait environ 4 Go. Assurez-vous d'avoir suffisamment d'espace disque et une connexion stable.


4. Vérifiez que le modèle est disponible

Vous devriez voir qwen2.5-coder:7b dans la liste avec sa taille (~4.7 Go).


5. Configurez les variables d'environnement


6. Rendez la configuration permanente dans ~/.zshrc


7. Testez avec Claude Code

Placez-vous dans un répertoire de projet et lancez Claude Code :

cd ~/Documents/mon_projet
claude "Liste les fichiers PHP de ce projet et explique leur role"
astuce

Si Claude Code répond en listant et expliquant vos fichiers, tout fonctionne. Si vous obtenez une erreur de connexion, vérifiez que ollama serve est bien en cours d'exécution.


Une solution