AILocal LLM UI 사용하기 (Open-WebUI)On this pageLocal LLM UI 사용하기 (Open-WebUI)Open-WebUI Github설치파이썬이 설치돼있어야합니다.pip install open-webui실행open-webui serveDocker로도 사용가능합니다.localhost:8080에 호스팅 되고 있습니다.들어가면 ollama로 올려둔 모델을 탐지하네요