Ollama Einrichtungsanleitung
Nutzen Sie Overlay mit Ollama für leistungsstarke lokale KI-Modelle
Besuchen Sie die offizielle Ollama-Website und folgen Sie den Installationsanweisungen für Ihr Betriebssystem:
https://ollama.ai/downloadVerwenden Sie den folgenden Befehl, um ein Modell herunterzuladen. Beispiel zum Herunterladen von Llama 3:
ollama pull llama3
Weitere beliebte Modelle sind: mistral, gemma, mixtral, phi, orca-mini und viele mehr.
Vollständige Modellbibliothek anzeigenWICHTIG: Sie müssen Ollama mit der Umgebungsvariable OLLAMA_ORIGINS ausführen, um die Unterstützung für Chrome-Erweiterungen zu ermöglichen!
Verwenden Sie diesen Befehl, um Ollama mit Erweiterungsunterstützung zu starten:
OLLAMA_ORIGINS=chrome-extension://* ollama serve
Dieser Befehl ermöglicht der Erweiterung die Verbindung zu Ihrem lokalen Ollama-Server. Lassen Sie dieses Terminalfenster geöffnet, während Sie Ollama mit Overlay verwenden.
Weitere Hilfe finden Sie in der Ollama-Dokumentation unter https://github.com/ollama/ollama/blob/main/docs/api.md
Verbindungsprobleme
Stellen Sie sicher, dass Ollama mit dem korrekten OLLAMA_ORIGINS-Flag ausgeführt wird. Überprüfen Sie, ob keine Firewall die Verbindung blockiert.
Modelle werden nicht angezeigt
Überprüfen Sie, ob Sie die Modelle erfolgreich mit dem Befehl `ollama pull` heruntergeladen haben. Versuchen Sie, den Ollama-Server neu zu starten.
Langsame Leistung
Größere Modelle benötigen mehr Rechenressourcen. Erwägen Sie die Verwendung eines kleineren Modells, wenn Ihre Hardware begrenzt ist.