반응형 AI LLM2 proxmox - ollama 설치하기 아래는 방법은 n100 정도의 미니pc에는 맞지 않는다.즉, 성능이 많이 떨어진다. 말을 걸어도 한참이나 걸리기 때문에 설치 방법만 참고하자. ---------------------------------------------------------------- proxmox에 LXC로 ollama를 설치하여 home assistant를 좀 더 똑똑하게 만들어 보자. https://community-scripts.github.io/ProxmoxVE/scripts?id=ollama 2025. 8. 16. ollama를 reboot후에도 자동으로 실행되도록 설정하기 proxmox에 helper script를 통해서 ollama LXC로 설치하였다. ollama를 LXC로 실행한 이유는 home assistant가 있는 곳에 설치하면 backup시에도 무거워지기 때문에 따로 설치하였다. 설치후에 reboot시에도 자동으로 실행되도록 아래와 같이 조치가 필요하다. 아래의 파일을 열어서, sudo vi /etc/systemd/system/ollama.service 아래 2번째 줄만 추가해 주면 된다. "ExecStart=" 으로 시작하는 line은 이미 있을 것이다. [Service]ExecStart=/usr/local/bin/ollama serveExecStartPost=/usr/bin/curl -X POST http://localhost:11434/api/gen.. 2025. 5. 25. 이전 1 다음 반응형