로컬 llm1 [sLLM 로컬 프로젝트] 2.ollama 와 Python 으로 소통하기 (feat. 파일 로컬 LLM 에 요청 및 응답 수신 성공) * 본 글은 GPT o1-preview 의 도움을 받아 코드 부분을 작성하였습니다.* 다만 본 글은 매크로 생성 글은 아닙니다. 1. ollama APIollama 는 api 를 제공합니다.https://github.com/ollama/ollama/blob/main/docs/api.md ollama/docs/api.md at main · ollama/ollamaGet up and running with Llama 3.2, Mistral, Gemma 2, and other large language models. - ollama/ollamagithub.com ollama 가 api 를 제공한다는 건, LLM 모델을 구동하고 있는 ollama 에게 별도 명령을 내릴 수 있다는 의미입니다.ollama api .. 2024. 10. 22. 이전 1 다음 반응형