一、你将得到什么
这篇教程带你把「本地大模型」跑起来:用 Ollama 管理模型,用 Open WebUI 做一个像网页聊天一样好用的界面。全程不涉及破解/绕过付费等内容,适合自用学习与效率提升。
二、准备工作(3分钟)
硬件建议:内存 16GB 起步更顺畅;若是 Mac(Apple Silicon)体验通常更好。Windows 建议预留足够磁盘空间(模型文件可能是数GB)。
网络建议:首次拉取模型会下载较大文件,尽量用稳定网络。
三、安装 Ollama(Windows / macOS)
1)下载安装
- 打开 Ollama 官网下载对应系统安装包并安装(Windows/macOS 都是图形化安装)。
- 安装完成后,Ollama 会在本机启动一个服务,默认端口是 11434。
2)验证是否安装成功
- Windows:打开 PowerShell;macOS:打开 终端。
- 执行:ollama -v(能看到版本号即可)。
四、拉取并运行一个模型(示例)
1)拉取模型
- 执行:ollama pull llama3.1(示例模型名,实际可按你需求替换)。
- 下载完成后可用:ollama list 查看已安装模型。
2)启动一次对话测试
- 执行:ollama run llama3.1
- 输入一句话测试回复是否正常;退出通常用 /bye(不同版本可能略有差异)。
3)管理模型(常用)
- 查看模型:ollama list
- 删除模型:ollama rm 模型名
五、安装 Open WebUI(推荐:Docker 方式;备选:Python 方式)
Open WebUI 是一个本地网页界面。你可以用 Docker 一键跑,也可以用 Python(适合不想装 Docker 的人)。二选一即可。
方案A:Docker 一键运行(更省心)
- 先安装 Docker Desktop(Windows/macOS)。
- 运行 Open WebUI 容器(按官方文档的命令执行即可)。
- 启动后在浏览器打开 Open WebUI 地址(一般是 http://localhost:3000)。
方案B:Python 方式(不装 Docker)
- 安装 Python 3.10+。
- 建议用虚拟环境创建独立依赖,然后按官方文档安装并启动。
- 启动后同样在浏览器打开对应地址。
六、把 Open WebUI 连接到 Ollama
关键点:Ollama 服务默认在本机 http://localhost:11434。
- 进入 Open WebUI 后台/设置里,找到模型提供方或 Ollama 相关配置。
- 将 Ollama 地址设置为:http://localhost:11434。
- 保存后回到聊天页,选择你已拉取的模型(例如 llama3.1)开始对话。
七、常见问题与排查(很实用)
1)访问不了 11434 / 3000 端口
- 检查服务是否在运行:重新打开终端执行 ollama list 看是否能返回。
- Windows 防火墙可能拦截:允许本地回环访问或为应用放行。
2)模型下载很慢
- 换稳定网络、避免同时下载多个大文件。
- 确认磁盘空间充足,空间不足会导致下载失败或校验异常。
3)运行很卡/频繁报内存不足
- 换更小的模型或更低的参数量版本。
- 关闭其他占用内存的软件;笔记本建议插电并设为高性能模式。
4)Open WebUI 看不到模型列表
- 先确保 Ollama 本机可用(用 ollama list 验证)。
- 检查 Open WebUI 的 Ollama 地址配置是否写错(注意 http 与端口)。
八、合规提示
本地大模型适合用于学习、写作、总结与效率提升。请勿用于入侵、攻击、绕过付费、破解或其他违法违规用途。