sLLM2 [sLLM 로컬 프로젝트] 2.ollama 와 Python 으로 소통하기 (feat. 파일 로컬 LLM 에 요청 및 응답 수신 성공) * 본 글은 GPT o1-preview 의 도움을 받아 코드 부분을 작성하였습니다.* 다만 본 글은 매크로 생성 글은 아닙니다. 1. ollama APIollama 는 api 를 제공합니다.https://github.com/ollama/ollama/blob/main/docs/api.md ollama/docs/api.md at main · ollama/ollamaGet up and running with Llama 3.2, Mistral, Gemma 2, and other large language models. - ollama/ollamagithub.com ollama 가 api 를 제공한다는 건, LLM 모델을 구동하고 있는 ollama 에게 별도 명령을 내릴 수 있다는 의미입니다.ollama api .. 2024. 10. 22. [sLLM 로컬 프로젝트] 1.ollama 와 OpenWebui 설정하기 (feat. 첨부 파일 리딩 기능 개선 필요) *본 글은 인공지능으로 작성하지 않았습니다. sLLM 이 지속적으로 출시되고 있습니다. GPT를 쓰다보면 생기는 생각은, 비용이 조금만 더 싸면 좋을 텐데.. 라는 부분입니다.무료로 LLM 을 쓸 수 있는 방법이 있을까? 는 국내외적으로도 계속 연구되고 있는 부분인 것 같고, 현재로서는 ollama 와 OpenWebUI를 사용한 방법이 그나마 LLM을 로컬에서 사용하는 현실적인 방법인 것 같습니다. 제 환경은 윈도우, 16GB RAM 입니다. (*그래픽카드 없는 노트북) 1. ollama 설치https://ollama.com/download/windows Download Ollama on WindowsDownload Ollama on Windowsollama.com ollama 를 설치하고, 모델을 다운.. 2024. 10. 7. 이전 1 다음 반응형