如果你想把 AI 助手放在本地电脑里(离线/半离线可用、数据更可控),并且希望在浏览器里像用 ChatGPT 一样聊天、管理对话、上传文档做总结,那么 Ollama + Open WebUI 是一套很省心的组合。
本文会用“能跑起来 + 好用 + 可维护”为目标,给到一套跨 Windows/macOS/Linux 的落地步骤与常用配置建议。
Ollama:本地模型运行时,负责下载/管理/运行模型,对外提供本地接口。
Open WebUI:Web 端交互界面(多用户/多会话/文件与知识库/工具开关等),连接你的 Ollama。
你可以把它理解为:Ollama 是“发动机”,Open WebUI 是“仪表盘 + 方向盘”。
优先从官方网站获取安装包或安装指引(不同系统会有不同的安装方式与依赖要求)。安装完成后,一般会在本机启动一个服务。
验证思路:
提示:如果你在公司网络或多设备环境,请先确认代理/镜像策略合规,避免使用来路不明的下载源。
模型选择建议按三个维度来:
新手更推荐从“轻量但口碑稳定”的模型开始:先把链路跑通,再按需求升级更大的模型。
Open WebUI 本质上是一个 Web 服务,常见有两种部署路径:
不管你用哪种方式,核心目标都是:让 Open WebUI 能访问到你的 Ollama 服务地址。
进入 Open WebUI 后,通常会在设置里配置“模型提供方/服务地址”。把 Ollama 的地址填进去(本机一般是 localhost)。
配置完成后,你应该能在模型列表里看到可用模型,并正常发起对话。
下面是几个实用但不复杂的设置方向:
把下面模板粘贴到对话开头使用,效果会比“随便问一句”更稳定。
模板A:写作(结构化产出)
你是一名中文内容编辑。 请先问我3个关键问题(受众/场景/长度),再开始写。 输出格式: 1) 标题(3-5个备选) 2) 导语(80-120字) 3) 正文(分段小标题,条理清晰) 4) 可复制的要点清单 要求:语言自然,不要夸张,不要虚构数据。模板B:翻译(保留语气与术语)
请把下面内容翻译成中文。 要求: - 保留专业术语(首次出现给出英文括注) - 语气自然,不要逐字直译 - 遇到歧义请给出2种译法并说明差别 内容如下:模板C:总结(会议纪要/文档提炼)
请把下面内容总结成“可执行”的版本。 输出: - 结论(3条以内) - 关键事实(要有数字就保留数字) - 待办(按优先级排序,包含负责人/截止时间占位符) - 风险与不确定点(需要我确认的问题) 内容如下:本地 AI 的价值在于“数据可控 + 低成本 + 可定制”。建议你先把 Ollama + Open WebUI 跑起来,用本文的三套模板把日常写作/翻译/总结场景打通,然后再按你的设备与需求逐步升级模型与工作流。