Guía de configuración de Ollama

Usa Overlay con Ollama para modelos IA locales potentes

Instalando Ollama
Primero, instala Ollama en tu ordenador

Visita el sitio web oficial de Ollama y sigue las instrucciones de instalación para tu sistema operativo:

https://ollama.ai/download
Descargando Modelos
Descarga los modelos que quieres usar

Usa el siguiente comando para descargar un modelo. Por ejemplo, para descargar Llama 3:

ollama pull llama3

Otros modelos populares incluyen: mistral, gemma, mixtral, phi, orca-mini, y muchos más.

Ver la biblioteca completa de modelos
Ejecutando Ollama con soporte para la extensión Chrome
Paso crítico: Ejecuta Ollama con flags especiales para permitir que la extensión se conecte

¡IMPORTANTE: Debes ejecutar Ollama con la variable de entorno OLLAMA_ORIGINS para el soporte de la extensión Chrome!

Usa este comando para iniciar Ollama con soporte para la extensión:

OLLAMA_ORIGINS=chrome-extension://* ollama serve

Este comando permite que la extensión se conecte a tu servidor local de Ollama. Mantén esta ventana de terminal abierta mientras usas Ollama con Overlay.

Para más ayuda, visita la documentación de Ollama en https://github.com/ollama/ollama/blob/main/docs/api.md

Solución de problemas
Problemas comunes y soluciones

Problemas de conexión

Asegúrate de que Ollama se esté ejecutando con el flag OLLAMA_ORIGINS correcto. Verifica que ningún firewall esté bloqueando la conexión.

Modelos no aparecen

Verifica que hayas descargado correctamente los modelos usando el comando ollama pull. Intenta reiniciar el servidor Ollama.

Rendimiento lento

Los modelos más grandes requieren más recursos computacionales. Considera usar un modelo más pequeño si tu hardware es limitado.