Ollama + Open WebUI 本地大模型搭建:安装、模型管理与局域网访问

你将得到什么

Ollama 负责在本机拉取/运行大模型,Open WebUI 提供一个可在浏览器里使用的聊天界面(支持多会话、历史记录与模型切换)。全程走官方/开源渠道,不涉及任何破解或绕过付费。

参考链接:https://ollama.comhttps://github.com/open-webui/open-webui

环境要求与注意事项

1) 优先使用较新的系统与显卡驱动;2) 首次拉取模型需要一定网络与磁盘空间;3) 如果你要在局域网其他设备访问 WebUI,请确认同网段并放行对应端口。

安装 Ollama(macOS / Windows / Linux)

最省心的方式是直接从官网下载安装包:https://ollama.com/download 。安装完成后,终端里验证:

ollama --version

下载并运行一个模型(示例)

以 llama3 为例(你也可以换成其他模型名):

ollama pull llama3

ollama run llama3

运行后你可以在终端里直接对话。想停止对话通常可以输入 /bye 或按 Ctrl+C(具体取决于你的终端环境)。

安装 Open WebUI(推荐 Docker / 容器方式)

如果你电脑已安装 Docker(或兼容的容器运行时),可用一条命令启动 Open WebUI:

docker run -d --name open-webui -p 3000:8080 -v open-webui:/app/backend/data --restart unless-stopped ghcr.io/open-webui/open-webui:main

然后在浏览器打开:https://127.0.0.1:3000 (部分环境可能需要改成 http://localhost:3000)。

让 WebUI 连接到 Ollama

多数情况下 Open WebUI 会自动探测本机的 Ollama 服务;如果没有,请在 WebUI 的设置里找到 Ollama 连接地址,常见是 http://host.docker.internal:11434(macOS/Windows)或你的局域网 IP + 端口(Linux 视容器网络而定)。

你也可以先在本机确认 Ollama 服务是否在监听(通常端口为 11434)。

局域网访问与安全建议

如果你希望手机/平板访问 WebUI:把访问地址从 localhost 换成电脑的局域网 IP(例如 http://192.168.1.10:3000),并在防火墙里放行 3000 端口。建议只在可信局域网使用,并为 WebUI 设置强密码,避免暴露到公网。

常见问题排查

1) WebUI 打不开:先确认容器是否在运行;端口是否被占用;浏览器地址是否写对(http/https)。

2) 模型下载很慢:更换网络环境或在空闲时段拉取;优先选择体积更小的模型。

3) WebUI 找不到 Ollama:检查 Ollama 是否已启动、端口是否为 11434、容器到宿主机的访问地址是否正确。

工具地址(汇总)

Ollama:https://ollama.com

Open WebUI:https://github.com/open-webui/open-webui

用户评论 (0)

登录后参与讨论

立即登录 注册账号

暂无评论,快来抢沙发吧~

操作成功