这篇教程面向“想在自己的电脑上跑一个本地 AI 助手”的新手:用 Ollama 负责模型运行,用 Open WebUI 提供网页端对话界面。你会完成安装、首次拉取模型、让 WebUI 连接到本机 Ollama,并把常见坑一次性避开。
硬件:建议 16GB 内存起步;有独显更好,但没有也能跑小模型(速度会慢一些)。
磁盘:预留至少 10GB(模型体积会随你选择的模型变大)。
网络:首次拉取模型需要稳定网络;如果网络波动,优先用断点重试而不是频繁更换工具。
原则:本地大模型适合做总结、写作、代码辅助与知识整理;请避免用于任何违规内容或敏感操作。
Windows:到 Ollama 官网下载 Windows 安装包,双击安装。安装完成后,确保 Ollama 服务能正常启动(通常会在后台运行)。
macOS:同样从官网下载安装,按提示拖入应用并启动。首次运行可能需要在“隐私与安全性”里允许打开。
验证是否启动:安装后打开命令行(Windows Terminal / 终端),运行 Ollama 的基础命令查看是否能响应。如果提示找不到命令,通常是 PATH 未生效:重开终端或重启一次系统即可。
新手不建议一上来就追最大参数量。你可以先选一个偏通用的小模型做体验:能对话、能写作、能做简单代码辅助即可。
建议策略:
运行方式:拉取完成后直接在终端运行模型进入对话,确认输出正常。若感觉慢,先从更小的模型开始或减少并发应用。
Open WebUI 的价值是“像用在线 Chat 一样用本地模型”:支持多会话、对话管理、角色设定、简单知识库与文件导入等。
安装思路(两种常见路径,二选一即可):
提示:你不需要“折腾到最复杂”。能跑起来、能连接 Ollama、能稳定使用就是最优解。
关键点只有一个:让 WebUI 知道 Ollama 的服务地址(通常是本机地址)。连接成功后,你能在 WebUI 里看到可用模型列表,并直接选择模型开始对话。
连不上时的排查顺序:
模型管理:把常用模型置顶,减少每次选择成本;不常用的模型及时清理,回收磁盘。
提示词模板:为“写周报 / 写方案 / 代码解释 / 会议纪要”各做一个模板,效率会立刻上来。
上下文习惯:长对话会占用更多内存。遇到明显变慢或答非所问,建议新开会话并把关键信息用要点重新贴一次。
Q1:为什么拉取模型很慢?
A:优先确保网络稳定、避免频繁中断;必要时选体积更小的模型先体验。
Q2:WebUI 打不开或提示端口被占用?
A:通常是本机已有服务占用同端口。换一个端口或先关闭占用进程再启动。
Q3:对话速度慢、风扇狂转?
A:换小模型、减少后台程序、降低同时运行的应用数量;必要时升级内存或使用带独显的设备。