Guide de configuration d'Ollama
Utilisez Overlay avec Ollama pour des modèles d'IA locaux puissants
Visitez le site officiel d'Ollama et suivez les instructions d'installation pour votre système d'exploitation :
https://ollama.ai/downloadUtilisez la commande suivante pour télécharger un modèle. Par exemple, pour télécharger Llama 3 :
ollama pull llama3
D'autres modèles populaires incluent : mistral, gemma, mixtral, phi, orca-mini, et bien d'autres.
Voir la bibliothèque complète des modèlesIMPORTANT : Vous devez exécuter Ollama avec la variable d'environnement OLLAMA_ORIGINS pour le support de l'extension Chrome !
Utilisez cette commande pour démarrer Ollama avec le support de l'extension :
OLLAMA_ORIGINS=chrome-extension://* ollama serve
Cette commande permet à l'extension de se connecter à votre serveur Ollama local. Gardez cette fenêtre de terminal ouverte lors de l'utilisation d'Ollama avec Overlay.
Pour plus d'aide, visitez la documentation d'Ollama à l'adresse https://github.com/ollama/ollama/blob/main/docs/api.md
Problèmes de connexion
Assurez-vous qu'Ollama fonctionne avec l'indicateur OLLAMA_ORIGINS correct. Vérifiez qu'aucun pare-feu ne bloque la connexion.
Les modèles n'apparaissent pas
Vérifiez que vous avez bien téléchargé les modèles à l'aide de la commande `ollama pull`. Essayez de redémarrer le serveur Ollama.
Performances lentes
Les modèles plus grands nécessitent plus de ressources de calcul. Envisagez d'utiliser un modèle plus petit si votre matériel est limité.