반응형 LLM2 ollama를 reboot후에도 자동으로 실행되도록 설정하기 proxmox에 helper script를 통해서 ollama LXC로 설치하였다. ollama를 LXC로 실행한 이유는 home assistant가 있는 곳에 설치하면 backup시에도 무거워지기 때문에 따로 설치하였다. 설치후에 reboot시에도 자동으로 실행되도록 아래와 같이 조치가 필요하다. 아래의 파일을 열어서, sudo vi /etc/systemd/system/ollama.service 아래 2번째 줄만 추가해 주면 된다. "ExecStart=" 으로 시작하는 line은 이미 있을 것이다. [Service]ExecStart=/usr/local/bin/ollama serveExecStartPost=/usr/bin/curl -X POST http://localhost:11434/api/gen.. 2025. 5. 25. 올라마 설치하기 올라마를 설치해 보자.Ollama는 다양한 LLM 모델을 설치해서 local에서 사용할 수 있는 나만의 AI가 되는 것이다. 나만의 자비스... 로는 언제쯤이나 될까나... ? 우선 아래 링크에서 다운로드 받자. 윈도우, 리눅스, 맥OS 가 있다. 처음에는 n100 미니PC에서 설치하려고 했으나, GPU 모델이 적합하지(지원하지) 않아서 설치할 수 없었다. 그래서 다음에는 좀 더 비싼 미니 PC를 사봐야겠다. https://ollama.com/download 설치하는 동안, 어떤 LLM 모델을 설치할 지 찾아보자. 우선 처음이니... 한글이 지원되는 모델을 설치해 보자. Ollama 홈페이지에서 Models를 클릭하여 "korean"을 검색해 보자. 오~ 아래와 같이 exaone3.5라고 나.. 2025. 3. 22. 이전 1 다음 반응형