Ollama 本地大模型上手:安装、模型管理与 Open WebUI 网页界面配置

一、你将得到什么

这篇教程带你把「本地大模型」跑起来:用 Ollama 管理模型,用 Open WebUI 做一个像网页聊天一样好用的界面。全程不涉及破解/绕过付费等内容,适合自用学习与效率提升。

二、准备工作(3分钟)

硬件建议:内存 16GB 起步更顺畅;若是 Mac(Apple Silicon)体验通常更好。Windows 建议预留足够磁盘空间(模型文件可能是数GB)。

网络建议:首次拉取模型会下载较大文件,尽量用稳定网络。

三、安装 Ollama(Windows / macOS)

1)下载安装

  • 打开 Ollama 官网下载对应系统安装包并安装(Windows/macOS 都是图形化安装)。
  • 安装完成后,Ollama 会在本机启动一个服务,默认端口是 11434

2)验证是否安装成功

  • Windows:打开 PowerShell;macOS:打开 终端。
  • 执行:ollama -v(能看到版本号即可)。

四、拉取并运行一个模型(示例)

1)拉取模型

  • 执行:ollama pull llama3.1(示例模型名,实际可按你需求替换)。
  • 下载完成后可用:ollama list 查看已安装模型。

2)启动一次对话测试

  • 执行:ollama run llama3.1
  • 输入一句话测试回复是否正常;退出通常用 /bye(不同版本可能略有差异)。

3)管理模型(常用)

  • 查看模型:ollama list
  • 删除模型:ollama rm 模型名

五、安装 Open WebUI(推荐:Docker 方式;备选:Python 方式)

Open WebUI 是一个本地网页界面。你可以用 Docker 一键跑,也可以用 Python(适合不想装 Docker 的人)。二选一即可。

方案A:Docker 一键运行(更省心)

  • 先安装 Docker Desktop(Windows/macOS)。
  • 运行 Open WebUI 容器(按官方文档的命令执行即可)。
  • 启动后在浏览器打开 Open WebUI 地址(一般是 http://localhost:3000)。

方案B:Python 方式(不装 Docker)

  • 安装 Python 3.10+。
  • 建议用虚拟环境创建独立依赖,然后按官方文档安装并启动。
  • 启动后同样在浏览器打开对应地址。

六、把 Open WebUI 连接到 Ollama

关键点:Ollama 服务默认在本机 http://localhost:11434。

  • 进入 Open WebUI 后台/设置里,找到模型提供方或 Ollama 相关配置。
  • 将 Ollama 地址设置为:http://localhost:11434。
  • 保存后回到聊天页,选择你已拉取的模型(例如 llama3.1)开始对话。

七、常见问题与排查(很实用)

1)访问不了 11434 / 3000 端口

  • 检查服务是否在运行:重新打开终端执行 ollama list 看是否能返回。
  • Windows 防火墙可能拦截:允许本地回环访问或为应用放行。

2)模型下载很慢

  • 换稳定网络、避免同时下载多个大文件。
  • 确认磁盘空间充足,空间不足会导致下载失败或校验异常。

3)运行很卡/频繁报内存不足

  • 换更小的模型或更低的参数量版本。
  • 关闭其他占用内存的软件;笔记本建议插电并设为高性能模式。

4)Open WebUI 看不到模型列表

  • 先确保 Ollama 本机可用(用 ollama list 验证)。
  • 检查 Open WebUI 的 Ollama 地址配置是否写错(注意 http 与端口)。

八、合规提示

本地大模型适合用于学习、写作、总结与效率提升。请勿用于入侵、攻击、绕过付费、破解或其他违法违规用途。

用户评论 (0)

登录后参与讨论

立即登录 注册账号

暂无评论,快来抢沙发吧~

操作成功