Ollama 设置指南
使用 Overlay 和 Ollama 获得强大的本地 AI 模型
安装 Ollama
首先,在您的计算机上安装 Ollama
访问 Ollama 官方网站并按照您的操作系统的安装说明进行操作:
https://ollama.ai/download下载模型
下载您想使用的模型
使用以下命令下载模型。例如,要下载 Llama 3:
ollama pull llama3
其他流行的模型包括:mistral、gemma、mixtral、phi、orca-mini 等等。
查看完整模型库运行 Ollama 并支持 Chrome 扩展
关键步骤:使用特殊标志运行 Ollama 以允许扩展连接
重要:您必须使用 OLLAMA_ORIGINS 环境变量运行 Ollama 以支持 Chrome 扩展!
使用此命令启动支持扩展的 Ollama:
OLLAMA_ORIGINS=chrome-extension://* ollama serve
此命令允许扩展连接到您的本地 Ollama 服务器。在使用 Ollama 和 Overlay 时,请保持此终端窗口打开。
要获取更多帮助,请访问 Ollama 文档: https://github.com/ollama/ollama/blob/main/docs/api.md
故障排除
常见问题和解决方案
连接问题
确保 Ollama 使用正确的 OLLAMA_ORIGINS 标志运行。检查是否有防火墙阻止连接。
模型不显示
验证您已成功使用 ollama pull 命令下载模型。尝试重启 Ollama 服务器。
性能缓慢
更大的模型需要更多的计算资源。如果您的硬件有限,请考虑使用更小的模型。