📌 一、Open WebUI 简介
Open WebUI 是一个开源的本地网页聊天界面,专为 Ollama(或 OpenAI 接口兼容模型)设计,具备以下功能:
- ✅ 与本地 Ollama 模型无缝集成
- ✅ 多模型切换、历史会话保存
- ✅ 系统提示词控制、API 参数调整
- ✅ 流式响应 + Markdown 支持
- ✅ 支持多用户(可开启身份验证)
GitHub 地址(出站链接):
👉 https://github.com/open-webui/open-webui
🧱 二、系统要求
- 已安装 Ollama
- Docker 或 Podman 环境(推荐使用 Docker)
🐳 三、使用 Docker 快速部署
1️⃣ 拉取镜像并运行 WebUI
docker run -d \
--name open-webui \
-p 3000:3000 \
-e OLLAMA_HOST=http://host.docker.internal:11434 \
-v open-webui-data:/app/backend/data \
--restart unless-stopped \
ghcr.io/open-webui/open-webui:main
📌 注意:
OLLAMA_HOST
:指定 Ollama 服务地址,macOS/Windows 使用host.docker.internal
,Linux 可用http://127.0.0.1:11434
-v
参数可保存 WebUI 历史数据
2️⃣ 访问界面:
打开浏览器访问:
http://localhost:3000
首屏将引导创建管理员账户。
⚙️ 四、WebUI 设置界面功能详解
功能板块 | 说明 |
---|---|
模型选择 | 可切换已安装的多个 Ollama 模型 |
系统提示词设置 | 自定义模型的角色(如“你是产品经理助手”) |
会话历史管理 | 自动保存对话记录,可分类、重命名、查看 |
进阶参数设置 | 支持温度、Top-p、最大Token、重复惩罚等参数 |
多用户支持 | 可启用身份验证,适合多人共享部署 |
插件系统 | 支持集成浏览器插件、RAG、联网搜索等功能 |
🧪 五、实际效果截图(参考)
- 🧠 模型输出支持 Markdown 格式渲染
- ⏳ 支持 流式响应,边生成边显示
- 📁 会话历史自动保存,可导出为 JSON/Markdown
🔐 六、安全部署建议
项目 | 建议 |
---|---|
登录权限 | 建议开启密码登录(默认开启) |
HTTPS | 使用 Nginx/Traefik 添加 HTTPS |
限制外网访问 | 若在内网部署,关闭 3000 端口公网 |
数据卷持久化 | 挂载 -v open-webui-data |
🧩 七、常见问题解决
🚫 问题:WebUI 无法连接 Ollama
- 检查 Docker 网络访问本机端口 11434 是否成功
- Linux 下推荐使用
--network host
模式运行容器
docker run --rm -p 3000:3000 --network=host ghcr.io/open-webui/open-webui:main
🚫 问题:中文乱码 / 回答偏差
- 确保使用支持中文的模型(如
qwen
,deepseek-coder
,yi
等) - 设置合适的系统提示词(Prompt)改善上下文
🔄 八、后续进阶玩法
- ✅ 将 Open WebUI 集成进内网知识库系统(PDF 问答、向量检索)
- ✅ 接入 LlamaIndex / LangChain 作为后端管线
- ✅ 使用 Nginx 加反向代理 + HTTPS
- ✅ 集成微信机器人、企业微信等
🧭 九、参考链接
- 🌐 GitHub: https://github.com/open-webui/open-webui
- 📘 Ollama 官方: https://ollama.com
- 📦 Docker Hub 镜像:
ghcr.io/open-webui/open-webui
发表回复