Ollama 设置指南

使用 Overlay 和 Ollama 获得强大的本地 AI 模型

安装 Ollama
首先,在您的计算机上安装 Ollama

访问 Ollama 官方网站并按照您的操作系统的安装说明进行操作:

https://ollama.ai/download
下载模型
下载您想使用的模型

使用以下命令下载模型。例如,要下载 Llama 3:

ollama pull llama3

其他流行的模型包括:mistral、gemma、mixtral、phi、orca-mini 等等。

查看完整模型库
运行 Ollama 并支持 Chrome 扩展
关键步骤:使用特殊标志运行 Ollama 以允许扩展连接

重要:您必须使用 OLLAMA_ORIGINS 环境变量运行 Ollama 以支持 Chrome 扩展!

使用此命令启动支持扩展的 Ollama:

OLLAMA_ORIGINS=chrome-extension://* ollama serve

此命令允许扩展连接到您的本地 Ollama 服务器。在使用 Ollama 和 Overlay 时,请保持此终端窗口打开。

要获取更多帮助,请访问 Ollama 文档: https://github.com/ollama/ollama/blob/main/docs/api.md

故障排除
常见问题和解决方案

连接问题

确保 Ollama 使用正确的 OLLAMA_ORIGINS 标志运行。检查是否有防火墙阻止连接。

模型不显示

验证您已成功使用 ollama pull 命令下载模型。尝试重启 Ollama 服务器。

性能缓慢

更大的模型需要更多的计算资源。如果您的硬件有限,请考虑使用更小的模型。