Руководство по настройке Ollama
Используйте Overlay с Ollama для мощных локальных ИИ-моделей
Посетите официальный сайт Ollama и следуйте инструкциям по установке для вашей операционной системы:
https://ollama.ai/downloadИспользуйте следующую команду для загрузки модели. Например, чтобы скачать Llama 3:
ollama pull llama3
Другие популярные модели включают: mistral, gemma, mixtral, phi, orca-mini и многие другие.
Просмотреть полную библиотеку моделейВАЖНО: Вы должны запустить Ollama с переменной окружения OLLAMA_ORIGINS для поддержки расширения Chrome!
Используйте эту команду для запуска Ollama с поддержкой расширения:
OLLAMA_ORIGINS=chrome-extension://* ollama serve
Эта команда позволяет расширению подключиться к вашему локальному серверу Ollama. Держите это окно терминала открытым при использовании Ollama с Overlay.
Для получения дополнительной помощи посетите документацию Ollama по адресу https://github.com/ollama/ollama/blob/main/docs/api.md
Проблемы с подключением
Убедитесь, что Ollama запущена с правильным флагом OLLAMA_ORIGINS. Проверьте, что брандмауэр не блокирует соединение.
Модели не отображаются
Убедитесь, что вы успешно загрузили модели с помощью команды ollama pull. Попробуйте перезапустить сервер Ollama.
Низкая производительность
Более крупные модели требуют больше вычислительных ресурсов. Рассмотрите возможность использования меньшей модели, если ваше оборудование ограничено.