Guide de configuration d'Ollama

Utilisez Overlay avec Ollama pour des modèles d'IA locaux puissants

Installation d'Ollama
Tout d'abord, installez Ollama sur votre ordinateur

Visitez le site officiel d'Ollama et suivez les instructions d'installation pour votre système d'exploitation :

https://ollama.ai/download
Téléchargement des modèles
Téléchargez les modèles que vous souhaitez utiliser

Utilisez la commande suivante pour télécharger un modèle. Par exemple, pour télécharger Llama 3 :

ollama pull llama3

D'autres modèles populaires incluent : mistral, gemma, mixtral, phi, orca-mini, et bien d'autres.

Voir la bibliothèque complète des modèles
Exécuter Ollama avec le support de l'extension Chrome
Étape critique : Exécutez Ollama avec des indicateurs spéciaux pour permettre à l'extension de se connecter

IMPORTANT : Vous devez exécuter Ollama avec la variable d'environnement OLLAMA_ORIGINS pour le support de l'extension Chrome !

Utilisez cette commande pour démarrer Ollama avec le support de l'extension :

OLLAMA_ORIGINS=chrome-extension://* ollama serve

Cette commande permet à l'extension de se connecter à votre serveur Ollama local. Gardez cette fenêtre de terminal ouverte lors de l'utilisation d'Ollama avec Overlay.

Pour plus d'aide, visitez la documentation d'Ollama à l'adresse https://github.com/ollama/ollama/blob/main/docs/api.md

Dépannage
Problèmes courants et solutions

Problèmes de connexion

Assurez-vous qu'Ollama fonctionne avec l'indicateur OLLAMA_ORIGINS correct. Vérifiez qu'aucun pare-feu ne bloque la connexion.

Les modèles n'apparaissent pas

Vérifiez que vous avez bien téléchargé les modèles à l'aide de la commande `ollama pull`. Essayez de redémarrer le serveur Ollama.

Performances lentes

Les modèles plus grands nécessitent plus de ressources de calcul. Envisagez d'utiliser un modèle plus petit si votre matériel est limité.