Ollama 负责在本机拉取/运行大模型,Open WebUI 提供一个可在浏览器里使用的聊天界面(支持多会话、历史记录与模型切换)。全程走官方/开源渠道,不涉及任何破解或绕过付费。
参考链接:https://ollama.com ,https://github.com/open-webui/open-webui
1) 优先使用较新的系统与显卡驱动;2) 首次拉取模型需要一定网络与磁盘空间;3) 如果你要在局域网其他设备访问 WebUI,请确认同网段并放行对应端口。
最省心的方式是直接从官网下载安装包:https://ollama.com/download 。安装完成后,终端里验证:
ollama --version
以 llama3 为例(你也可以换成其他模型名):
ollama pull llama3
ollama run llama3
运行后你可以在终端里直接对话。想停止对话通常可以输入 /bye 或按 Ctrl+C(具体取决于你的终端环境)。
如果你电脑已安装 Docker(或兼容的容器运行时),可用一条命令启动 Open WebUI:
docker run -d --name open-webui -p 3000:8080 -v open-webui:/app/backend/data --restart unless-stopped ghcr.io/open-webui/open-webui:main
然后在浏览器打开:https://127.0.0.1:3000 (部分环境可能需要改成 http://localhost:3000)。
多数情况下 Open WebUI 会自动探测本机的 Ollama 服务;如果没有,请在 WebUI 的设置里找到 Ollama 连接地址,常见是 http://host.docker.internal:11434(macOS/Windows)或你的局域网 IP + 端口(Linux 视容器网络而定)。
你也可以先在本机确认 Ollama 服务是否在监听(通常端口为 11434)。
如果你希望手机/平板访问 WebUI:把访问地址从 localhost 换成电脑的局域网 IP(例如 http://192.168.1.10:3000),并在防火墙里放行 3000 端口。建议只在可信局域网使用,并为 WebUI 设置强密码,避免暴露到公网。
1) WebUI 打不开:先确认容器是否在运行;端口是否被占用;浏览器地址是否写对(http/https)。
2) 模型下载很慢:更换网络环境或在空闲时段拉取;优先选择体积更小的模型。
3) WebUI 找不到 Ollama:检查 Ollama 是否已启动、端口是否为 11434、容器到宿主机的访问地址是否正确。
Ollama:https://ollama.com
Open WebUI:https://github.com/open-webui/open-webui