📌 一、Open WebUI 简介

Open WebUI 是一个开源的本地网页聊天界面,专为 Ollama(或 OpenAI 接口兼容模型)设计,具备以下功能:

  • ✅ 与本地 Ollama 模型无缝集成
  • ✅ 多模型切换、历史会话保存
  • ✅ 系统提示词控制、API 参数调整
  • ✅ 流式响应 + Markdown 支持
  • ✅ 支持多用户(可开启身份验证)

GitHub 地址(出站链接):
👉 https://github.com/open-webui/open-webui


🧱 二、系统要求

  • 已安装 Ollama
  • Docker 或 Podman 环境(推荐使用 Docker)

🐳 三、使用 Docker 快速部署

1️⃣ 拉取镜像并运行 WebUI

docker run -d \
  --name open-webui \
  -p 3000:3000 \
  -e OLLAMA_HOST=http://host.docker.internal:11434 \
  -v open-webui-data:/app/backend/data \
  --restart unless-stopped \
  ghcr.io/open-webui/open-webui:main

📌 注意:

  • OLLAMA_HOST:指定 Ollama 服务地址,macOS/Windows 使用 host.docker.internal,Linux 可用 http://127.0.0.1:11434
  • -v 参数可保存 WebUI 历史数据

2️⃣ 访问界面:

打开浏览器访问:

http://localhost:3000

首屏将引导创建管理员账户。


⚙️ 四、WebUI 设置界面功能详解

功能板块说明
模型选择可切换已安装的多个 Ollama 模型
系统提示词设置自定义模型的角色(如“你是产品经理助手”)
会话历史管理自动保存对话记录,可分类、重命名、查看
进阶参数设置支持温度、Top-p、最大Token、重复惩罚等参数
多用户支持可启用身份验证,适合多人共享部署
插件系统支持集成浏览器插件、RAG、联网搜索等功能

🧪 五、实际效果截图(参考)

  • 🧠 模型输出支持 Markdown 格式渲染
  • ⏳ 支持 流式响应,边生成边显示
  • 📁 会话历史自动保存,可导出为 JSON/Markdown

🔐 六、安全部署建议

项目建议
登录权限建议开启密码登录(默认开启)
HTTPS使用 Nginx/Traefik 添加 HTTPS
限制外网访问若在内网部署,关闭 3000 端口公网
数据卷持久化挂载 -v open-webui-data

🧩 七、常见问题解决

🚫 问题:WebUI 无法连接 Ollama

  • 检查 Docker 网络访问本机端口 11434 是否成功
  • Linux 下推荐使用 --network host 模式运行容器
docker run --rm -p 3000:3000 --network=host ghcr.io/open-webui/open-webui:main

🚫 问题:中文乱码 / 回答偏差

  • 确保使用支持中文的模型(如 qwen, deepseek-coder, yi 等)
  • 设置合适的系统提示词(Prompt)改善上下文

🔄 八、后续进阶玩法

  • ✅ 将 Open WebUI 集成进内网知识库系统(PDF 问答、向量检索)
  • ✅ 接入 LlamaIndex / LangChain 作为后端管线
  • ✅ 使用 Nginx 加反向代理 + HTTPS
  • ✅ 集成微信机器人、企业微信等

🧭 九、参考链接