openwebui1 [sLLM 로컬 프로젝트] 1.ollama 와 OpenWebui 설정하기 (feat. 첨부 파일 리딩 기능 개선 필요) *본 글은 인공지능으로 작성하지 않았습니다. sLLM 이 지속적으로 출시되고 있습니다. GPT를 쓰다보면 생기는 생각은, 비용이 조금만 더 싸면 좋을 텐데.. 라는 부분입니다.무료로 LLM 을 쓸 수 있는 방법이 있을까? 는 국내외적으로도 계속 연구되고 있는 부분인 것 같고, 현재로서는 ollama 와 OpenWebUI를 사용한 방법이 그나마 LLM을 로컬에서 사용하는 현실적인 방법인 것 같습니다. 제 환경은 윈도우, 16GB RAM 입니다. (*그래픽카드 없는 노트북) 1. ollama 설치https://ollama.com/download/windows Download Ollama on WindowsDownload Ollama on Windowsollama.com ollama 를 설치하고, 모델을 다운.. 2024. 10. 7. 이전 1 다음 반응형