llama 3.12 [sLLM 로컬 프로젝트] 2.ollama 와 Python 으로 소통하기 (feat. 파일 로컬 LLM 에 요청 및 응답 수신 성공) * 본 글은 GPT o1-preview 의 도움을 받아 코드 부분을 작성하였습니다.* 다만 본 글은 매크로 생성 글은 아닙니다. 1. ollama APIollama 는 api 를 제공합니다.https://github.com/ollama/ollama/blob/main/docs/api.md ollama/docs/api.md at main · ollama/ollamaGet up and running with Llama 3.2, Mistral, Gemma 2, and other large language models. - ollama/ollamagithub.com ollama 가 api 를 제공한다는 건, LLM 모델을 구동하고 있는 ollama 에게 별도 명령을 내릴 수 있다는 의미입니다.ollama api .. 2024. 10. 22. ollama Windows 와 ollama open-webui 의 기본 인공지능 모델 저장 경로 llama 3.1 이 출시된 이후로 로컬로 llama 3.1 을 사용중입니다.윈도우 os 에서 작업을 하다보니, 그것도 윈도우 os 노트북으로 로컬 LLM 을 사용하고 싶어서 이것저것 시행착오가 많네요. ollama Windows preview 버전의 성능이 좋긴 한데.. GUI 가 예쁘지 않아서 ollama open-webui 를 설치하였으나, cpu 만 있는 노트북 환경에서는 open-webui 가 성능 부족으로 원활하게 작동하진 않습니다. ollama Windows 의 공식 다운로드 웹사이트 링크는 다음과 같습니다.https://ollama.com/download/windows Download Ollama on WindowsDownload Ollama on Windowsollama.comollama.. 2024. 8. 8. 이전 1 다음 반응형