欢迎来到尧图网

客户服务 关于我们

您的位置:首页 > 健康 > 美食 > LLM | Ollama WebUI 安装使用(pip 版)

LLM | Ollama WebUI 安装使用(pip 版)

2025/11/29 1:17:36 来源:https://blog.csdn.net/be_clever/article/details/142604610  浏览:    关键词:LLM | Ollama WebUI 安装使用(pip 版)

Open WebUI (Formerly Ollama WebUI) 也可以通过 docker 来安装使用

1. 详细步骤

1.1 安装 Open WebUI

# 官方建议使用 python3.11(2024.09.27),conda 的使用参考其他文章
conda create -n open-webui python=3.11
conda activate open-webui
# 相关依赖挺多的,安装得一会
pip install open-webui

1.2 启动 ollama 服务

# ollama 的安装使用参考其他文章,启动默认在 http://127.0.0.1:11434
ollama serve

1.3 启动 Open WebUI

# 首次启动会自动从 Hugging Face 下载相关文件,确保 HF 的访问通畅
open-webui serve

1.4 使用 Open WebUI

访问 http://127.0.0.1:8080/ ,自助注册账户后,即可在页面上选择模型进行对话

注:下载模型在终端执行 ollama pull xxx

2. 参考资料

2.1 Open WebUI (Formerly Ollama WebUI)

GitHub

https://github.com/open-webui/open-webui

3. 资源

3.1 Ollama

GitHub

https://github.com/ollama/ollama

Library(模型工厂)

https://ollama.com/library

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com

热搜词