01|先把 Copilot Chat 准备好:版本、权限与基础开关
Copilot Chat 的体验取决于三件事:编辑器版本、账号授权、以及你是否让它拿到“正确的上下文”。建议先做一次 5 分钟体检,避免后面越用越乱。
推荐检查清单
- 使用最新版 VS Code(或 JetBrains 系列的最新稳定版插件)。
- 确认已登录 GitHub 账号,并具备 Copilot 订阅/组织授权。
- 在设置里开启 Copilot 与 Chat 相关开关(例如启用内联建议、启用聊天面板)。
- 如果你在公司网络环境,优先确认代理/证书不会导致登录与模型请求失败。
02|上下文管理:让 AI“知道你在做什么”
多数人觉得“AI 乱答”,本质是上下文不完整:它不知道你的目标、代码边界、约束条件和现有接口。把上下文做成可复用的投喂方式,效率会明显提升。
三种常用上下文投喂方式
- 指向文件/选区:先选中关键代码段,再提问(适合定位 bug、解释逻辑)。
- 描述约束:明确语言版本、框架、风格、性能/可读性优先级、是否允许改 public API。
- 给“验收标准”:例如“通过现有单元测试”“不改变返回结构”“最少改动”。
一个好用的提问模板
“请基于我当前打开的文件与选区,完成:目标…;约束…;输出要求…;如果信息不足,请先列出你需要我补充的 3 个点。”
03|常用指令与对话套路:从问答到可执行结果
把对话从“解释”拉到“产出”,关键是让它按结构输出。下面这些指令更像“工作流按钮”,可以直接复制改一改就用。
- 生成可落地的任务拆解: “把这个需求拆成 6 步实现计划,并标出每步的风险点与回滚策略。”
- 生成最小可行实现(MVP): “先给出最小改动版本,保证能跑;再给出增强版可选项。”
- 代码解释 + 边界: “逐段解释这段逻辑的输入、输出、副作用;指出隐含假设与潜在空指针位置。”
- 重构建议: “在不改变外部行为的前提下重构,优先提升可读性与可测试性;给出前后对比点。”
04|代码评审工作流:让 Copilot Chat 当你的“第二双眼睛”
Copilot Chat 很适合做快速自检:它不替代正式 Code Review,但能把常见问题提前拦下(命名、边界、异常处理、日志、可测试性)。
建议流程(10 分钟版)
- 把本次改动的核心文件打开,选中关键 diff 段。
- 让它按检查清单扫描:输入校验、错误处理、并发安全、资源释放、可观测性(日志/指标)。
- 要求输出“必须改 / 建议改 / 可以不改”三栏,避免无效争论。
评审提问模板
“请以 Code Review 方式审阅这段改动:先列出 3 个高风险点(若有),再列出 5 条可读性/可维护性建议。输出要具体到行级或函数级,不要泛泛而谈。”
05|把提示词变成资产:建立你的团队/个人 Prompt 片段库
真正的提效来自复用。建议把常用 Prompt 做成“片段库”,按场景分类:调试、重构、写测试、写文档、评审、性能分析等。
- 调试类:要求它先复述现象与假设,再给最小复现步骤与排查优先级。
- 测试类:要求补齐边界用例、失败断言、以及 mock 策略。
- 文档类:要求输出“面向新同事”的 README 小节:如何运行、配置项、常见错误。
06|安全与合规提醒:哪些内容别让它“帮你写”
为了让工作流长期稳定,建议遵守两条底线:
- 不要让它生成或细化攻击、入侵、破解、绕过付费、绕过权限等敏感细节。
- 涉及隐私与商业机密时,先做脱敏:替换用户数据、密钥、内部域名、真实日志。
把 AI 当作“协作同事”,给到足够上下文与清晰约束,它就会更像一个可靠的助手,而不是随机回答机。