Guía de configuración de Ollama
Usa Overlay con Ollama para modelos IA locales potentes
Visita el sitio web oficial de Ollama y sigue las instrucciones de instalación para tu sistema operativo:
https://ollama.ai/downloadUsa el siguiente comando para descargar un modelo. Por ejemplo, para descargar Llama 3:
ollama pull llama3
Otros modelos populares incluyen: mistral, gemma, mixtral, phi, orca-mini, y muchos más.
Ver la biblioteca completa de modelos¡IMPORTANTE: Debes ejecutar Ollama con la variable de entorno OLLAMA_ORIGINS para el soporte de la extensión Chrome!
Usa este comando para iniciar Ollama con soporte para la extensión:
OLLAMA_ORIGINS=chrome-extension://* ollama serve
Este comando permite que la extensión se conecte a tu servidor local de Ollama. Mantén esta ventana de terminal abierta mientras usas Ollama con Overlay.
Para más ayuda, visita la documentación de Ollama en https://github.com/ollama/ollama/blob/main/docs/api.md
Problemas de conexión
Asegúrate de que Ollama se esté ejecutando con el flag OLLAMA_ORIGINS correcto. Verifica que ningún firewall esté bloqueando la conexión.
Modelos no aparecen
Verifica que hayas descargado correctamente los modelos usando el comando ollama pull. Intenta reiniciar el servidor Ollama.
Rendimiento lento
Los modelos más grandes requieren más recursos computacionales. Considera usar un modelo más pequeño si tu hardware es limitado.