Руководство по настройке Ollama

Используйте Overlay с Ollama для мощных локальных ИИ-моделей

Установка Ollama
Сначала установите Ollama на свой компьютер

Посетите официальный сайт Ollama и следуйте инструкциям по установке для вашей операционной системы:

https://ollama.ai/download
Загрузка моделей
Скачайте модели, которые хотите использовать

Используйте следующую команду для загрузки модели. Например, чтобы скачать Llama 3:

ollama pull llama3

Другие популярные модели включают: mistral, gemma, mixtral, phi, orca-mini и многие другие.

Просмотреть полную библиотеку моделей
Запуск Ollama с поддержкой расширения Chrome
Критический шаг: Запустите Ollama со специальными флагами, чтобы разрешить подключение расширения

ВАЖНО: Вы должны запустить Ollama с переменной окружения OLLAMA_ORIGINS для поддержки расширения Chrome!

Используйте эту команду для запуска Ollama с поддержкой расширения:

OLLAMA_ORIGINS=chrome-extension://* ollama serve

Эта команда позволяет расширению подключиться к вашему локальному серверу Ollama. Держите это окно терминала открытым при использовании Ollama с Overlay.

Для получения дополнительной помощи посетите документацию Ollama по адресу https://github.com/ollama/ollama/blob/main/docs/api.md

Устранение неполадок
Распространенные проблемы и их решения

Проблемы с подключением

Убедитесь, что Ollama запущена с правильным флагом OLLAMA_ORIGINS. Проверьте, что брандмауэр не блокирует соединение.

Модели не отображаются

Убедитесь, что вы успешно загрузили модели с помощью команды ollama pull. Попробуйте перезапустить сервер Ollama.

Низкая производительность

Более крупные модели требуют больше вычислительных ресурсов. Рассмотрите возможность использования меньшей модели, если ваше оборудование ограничено.