Ollama 설정 가이드
강력한 로컬 AI 모델을 위해 Overlay와 함께 Ollama 사용하기
Ollama 설치하기
먼저, 컴퓨터에 Ollama를 설치하세요
Ollama 공식 웹사이트를 방문하여 운영 체제에 맞는 설치 지침을 따르세요:
https://ollama.ai/download모델 다운로드
사용하고 싶은 모델을 다운로드하세요
다음 명령어를 사용하여 모델을 다운로드하세요. 예를 들어, Llama 3를 다운로드하려면:
ollama pull llama3
기타 인기 모델로는 mistral, gemma, mixtral, phi, orca-mini 등이 있습니다.
전체 모델 라이브러리 보기Chrome 확장 프로그램 지원으로 Ollama 실행하기
중요 단계: 확장 프로그램 연결을 허용하기 위해 특수 플래그로 Ollama 실행하기
중요: Chrome 확장 프로그램 지원을 위해 OLLAMA_ORIGINS 환경 변수로 Ollama를 실행해야 합니다!
확장 프로그램 지원으로 Ollama를 시작하려면 이 명령어를 사용하세요:
OLLAMA_ORIGINS=chrome-extension://* ollama serve
이 명령어를 통해 확장 프로그램이 로컬 Ollama 서버에 연결할 수 있습니다. Overlay와 함께 Ollama를 사용하는 동안 이 터미널 창을 열어두세요.
더 많은 도움이 필요하면 다음 주소에서 Ollama 문서를 참조하세요 https://github.com/ollama/ollama/blob/main/docs/api.md
문제 해결
일반적인 문제와 해결책
연결 문제
올바른 OLLAMA_ORIGINS 플래그로 Ollama가 실행 중인지 확인하세요. 방화벽이 연결을 차단하고 있지 않은지 확인하세요.
모델이 나타나지 않음
ollama pull 명령을 사용하여 성공적으로 모델을 가져왔는지 확인하세요. Ollama 서버를 재시작해 보세요.
느린 성능
더 큰 모델은 더 많은 컴퓨팅 리소스가 필요합니다. 하드웨어가 제한적이라면 더 작은 모델 사용을 고려해 보세요.