Ollama 负责在本机拉取/运行大模型,Open WebUI 提供一个类似 ChatGPT 的网页端界面(支持多会话、模型切换、基础参数配置)。这一套适合:想在本地做私密对话/写作辅助、局域网内给家人同事共享一个入口、或做轻量的 AI 工具箱。
本文只覆盖官方安装与常规使用,不包含任何攻击、入侵、破解、绕过付费或绕过平台限制的内容。模型与插件的授权请自行确认(不同模型许可证不同)。
参考链接:https://ollama.com/ 、https://github.com/open-webui/open-webui
1) 访问官网下载安装包并完成安装。安装后,Ollama 会在本机启动一个服务(默认监听本机)。
2) 打开终端(Windows Terminal / iTerm2),检查是否可用:
ollama -v任选一个你需要的模型(以轻量模型为例,首次会下载文件)。
ollama pull llama3.1 ollama run llama3.1提示:如果你更关注中文或代码能力,可以根据官方模型列表与社区推荐调整。下载速度慢通常与网络/镜像源有关,优先按官方文档排查。
Open WebUI 官方给了多种安装方式。对大多数人来说,Docker 方式最省心:升级/迁移都简单,数据也更好管理。
参考文档:https://docs.openwebui.com/
docker run -d --name open-webui -p 3000:8080 -e OLLAMA_ _URL=http://host.docker.internal:11434 -v open-webui:/app/backend/data --restart unless-stopped ghcr.io/open-webui/open-webui:main启动后在浏览器访问 https://localhost:3000(或 http://localhost:3000 视你的环境而定),按引导创建管理员账号。
如果你按上面的 Docker 命令启动,并且本机 Ollama 运行在 11434 端口,一般会自动连上。进入 Open WebUI 后,在模型列表里应能看到可用模型(或在设置里添加/刷新)。
建议:先用一个小模型验证链路通了,再换更大的模型,避免一次性把问题复杂化。
核心思路:让 Open WebUI 的 3000 端口对局域网可访问,然后用你的电脑局域网 IP 打开。
1) 先确认本机 IP(如 192.168.x.x)。
2) 在同一 Wi-Fi 下,用手机浏览器访问:http://你的IP:3000。
3) 若访问不到,优先检查防火墙是否拦截了入站端口(Windows Defender Firewall / macOS 防火墙),以及路由器是否开启了 AP 隔离。
安全建议:只在可信局域网开放;必要时给 Open WebUI 设置强密码,并定期更新容器镜像。
1) Open WebUI 看不到模型:先确认 Ollama 服务是否在运行;再确认 Open WebUI 连接的 OLLAMA_ _URL 是否指向正确地址;最后重启容器。
2) 生成很慢/卡顿:模型过大是最常见原因。先换小模型验证,再考虑显存/内存是否足够,或开启合适的量化版本(按模型许可与官方说明选择)。
3) 端口冲突:如果 3000 端口被占用,把映射改成 -p 3001:8080,然后访问 http://localhost:3001。
4) 局域网无法访问:多数是防火墙入站规则未放行,或路由器隔离导致设备互不可见。
把常用提示词做成模板(例如:会议纪要、邮件润色、代码解释、文档大纲),并按不同任务建多个会话。对需要一致风格的内容,可以固定一个 system/背景说明,减少每次重复输入。
这套组合的价值是:离线可控、部署成本低、可在局域网复用。等你把链路跑通后,再逐步补齐:更合适的模型、数据备份策略、以及更严格的访问控制。