第7到第10章教的是单个场景里怎么用 AI。这一章往后退一步,解决一个更根本的问题:怎么把整条工作流重新设计一遍,让 AI 不再是"偶尔用一下",而是流程里每一个合适的环节都有它在场。
学完前几章,你已经掌握了一批具体技能:用 AI 写会议纪要、用 Python 整合数据、用 HTML 工具做汇报。但很多人会发现一个现象:学了这些技能,工作效率确实有提升,但提升是零散的、不稳定的——今天想到了用 AI,省了半小时;明天忘了,该花多少时间还是花多少时间。
这背后的根本原因是:大多数人用 AI 的方式还停留在工具思维——遇到问题了想到用 AI,没遇到就不用。工具思维下,AI 是一个随机触发的加速器,不是系统的一部分。
两种思维模式的本质差异——AI 是随机插件,还是流程骨架
工作流思维要求你换一个视角:不是"这个任务 AI 能帮我做吗",而是"这整条流程里,哪些步骤应该由 AI 执行、哪些步骤必须由我来判断,以及这两类步骤之间如何交接"。这需要你先把工作流程"可视化",再对每个步骤做判断,最后重新设计整条流程。这套方法,就是本章要讲的流程审计法。
注意这一章和第7章的区别:第7章给了你一张"哪些任务适合 AI"的地图,帮你找到入口点。这一章是在你已经有了入口之后,进一步问:围绕同一个目标的完整工作流,怎么整体重新设计?视角从单个任务升到了整条流程。
流程审计法的五步,不需要任何技术背景,一张纸和一支笔就能做。核心思路是:先把工作流程拆到足够细的颗粒度,再对每一步做三维评估,最后根据评估结果设计人机分工。
接下来用一个真实场景完整走一遍流程审计法,从现状分析到最终SOP,每一步都有具体操作细节。选这个场景是因为它有几个特点让它成为学习流程审计的理想案例:工作量巨大(1000份)、步骤清晰可拆解、AI介入的空间很大,同时又有几个关键环节必须保留人工判断——恰好能同时展示"全自动""半自动""人工必须"三种模式。
HR 专员小陈负责公司秋招,本次开放三个岗位(销售总监、产品经理、财务专员),共收到 1023 份简历,交付期限10天。她的同事王姐用了整整12天才完成上一轮同等规模的简历筛选,而且到后期明显出现"疲劳判断"——第900份简历的质量评估明显不如第100份。小陈决定用流程审计法彻底重新设计这个流程。
1023 份简历来自不同渠道:招聘网站导出的 PDF、候选人邮件附件的 Word 文档、少量图片格式的扫描件。字段排布各不相同,有人把教育经历放最前面,有人把项目经历单独列出来,有人简历一页,有人写了六页。这种非结构化的状态,是所有后续工作无法批量自动化的根本原因。
第一步的目标:用 Claude Code 批量读取所有简历文件,提取统一格式的结构化字段。这一步是全自动的——没有业务判断,只有信息提取,而且提取结果可以在下一步被人工抽查纠正。
解析完成后,1023 份非结构化简历变成了 1023 行结构化数据,每一行都是标准格式,可以被后续的评分规则直接读取和计算。这一步对小陈完全透明——她只需要等待脚本运行完成,然后可以随机抽查 10-20 份解析结果,确认提取准确率。
维度一:规则性 — 纯信息提取,无业务判断 ✓ 适合全自动
维度二:输入结构化 — 输入是文件,内容非结构化但有固定信息点 ✓ AI可处理
维度三:错误成本 — 解析错误可在评分阶段被发现(极端情况:学历提取错误会在第二轮校验中暴露)✓ 可下游纠正
结论:全自动执行,人工抽查10-20份确认准确率即可。
这是整个流程里第一个人工必须的步骤,而且必须在 AI 开始评分之前完成。道理很简单:AI 能按规则精确执行,但它不知道这个公司的"销售总监"具体需要什么样的背景——是要有 SaaS 行业经验,还是消费品经验?是要有大团队管理经验,还是个人贡献者背景?这些判断来自业务理解,不来自通用知识。
小陈和用人部门各自花了 30 分钟,为三个岗位分别设计了评分维度和权重配置表:
| 评分维度 | 销售总监(权重) | 产品经理(权重) | 财务专员(权重) |
|---|---|---|---|
| 学历 / 院校层次 | 15% | 20% | 25% |
| 相关工作年限 | 25% | 20% | 20% |
| 行业匹配度 | 30%(SaaS优先) | 25%(互联网优先) | 15%(不限行业) |
| 职位经历匹配 | 20% | 25% | 30% |
| 加分项 | 10%(管理经验/500强) | 10%(0到1产品经历) | 10%(CPA证书/Big4经历) |
每个维度下面还需要细化打分规则。以"相关工作年限"为例:
注意评分配置里有两类规则:一类是纯数值规则(工作年限、学历层次),可以直接写成判断条件;另一类是语义判断(行业匹配度、职位经历匹配),需要用自然语言描述给 AI,由 AI 进行语义理解后打分。后者是大语言模型最有价值的地方——以前这类"模糊匹配"只有人才能做,现在 AI 可以高质量地完成,而且每次判断标准是一致的。
这是整个流程设计里最有价值的部分,也是大多数人在"用AI做简历筛选"时最容易忽略的地方。直接让 AI 给 1023 份简历打完分、排完序、交给用人部门,存在一个致命问题:AI 的判断是基于通用知识,会有系统性的盲区——它可能对"非传统路径"的优秀候选人(比如学历普通但有亮眼创业经历的人)评分偏低,也可能因为简历格式问题导致信息提取不完整。
三轮递进校验的设计,就是在效率和准确率之间找到最优平衡:
这三轮的本质,是把"不同类型的判断"分配给"最适合做这个判断的执行者":规则判断 → 代码;语义理解和标注 → AI;对非常规情况的业务判断 → 人。每一轮都只做自己最擅长的那件事,整体准确率比任何单一方式都高,总耗时也大幅下降。
第二轮 AI 评分的质量,很大程度上取决于提示词的设计。一个好的评分提示词需要做到三件事:让 AI 按固定格式输出(方便代码解析)、让评分有依据(方便人工复核时理解)、让不同简历的评分标准完全一致(避免随机性)。
【角色设定】
你是一名专业的招聘评估专家,正在对候选人简历进行结构化评估。请保持评分标准完全一致,不因简历格式或语言风格而产生偏差。
【岗位要求】
岗位:销售总监 | 行业:SaaS/企业软件 | 核心要求:带过10人以上销售团队、有大客户直销经验、熟悉B2B销售周期
【候选人信息(结构化)】
{candidate_json}
【评分任务】
请按以下维度逐一打分(0-100分),并说明理由(1句话),最后计算加权总分:
- 学历院校(权重15%):985=100, 211=85, 普通本科=65, 大专=35
- 工作年限(权重25%):≥8年=100, 5-8年=80, 3-5年=50, <3年=20
- 行业匹配(权重30%):语义判断SaaS/B2B软件匹配程度,重点看直销2B产品、大客户经验
- 职位匹配(权重20%):语义判断职位经历与"带团队销售总监"的匹配程度
- 加分项(权重10%):管理10人以上=+50, 500强经历=+30, CRM系统经验=+20(可叠加,最高100)
【输出格式(严格JSON)】
{
"scores": {"education":分数, "years":分数, "industry":分数, "role":分数, "bonus":分数},
"reasons": {"education":"理由", "industry":"理由", "role":"理由"},
"weighted_total": 加权总分,
"highlight": "该候选人最突出的1个优点",
"risk": "最值得注意的1个风险点或缺失项"
}
候选人:李某,10年SaaS销售经验,前公司销售VP,管理18人团队,大专学历,主要在To B企业软件行业
AI输出: 学历35分(大专) / 工作年限100分(10年)/ 行业匹配92分(SaaS直销背景高度吻合)/ 职位匹配88分(VP级别管理经验)/ 加分项80分(管理18人+500强经历)
加权总分:81.8分(进入强推荐池)
亮点:"资深SaaS行业直销背景,管理经验丰富,团队规模符合需求"
风险:"学历偏低,部分客户或对此有要求,面试时可重点考察其他硬实力"
这份简历如果人工筛选,HR 可能因为"大专学历"在第一眼就淘汰了,但 AI 综合评分后发现这是一个高匹配候选人,并且主动在风险标注里提醒了学历问题——供面试官决策参考。
三轮校验完成后,最终进入推荐池的候选人约130份。同一个候选人可能同时适合两个岗位(比如某些财务经验丰富的产品经理),AI 会根据不同岗位的评分维度分别打分,每个岗位独立生成候选人优先级列表。
最终产出是一个 HTML 可交互报告(连接第10章的技能),而不是一份 Excel 表格。用人部门拿到这个报告,可以:按评分排序、按某个维度筛选、点击候选人查看评分详情和 AI 的亮点/风险标注,不需要 HR 反复传文件版本。
这个报告格式的价值不只是"好看"。最关键的是:用人部门的面试官拿到报告后,可以在面试前就看到"风险标注"——比如"学历偏低,面试时建议重点考察项目规模和实际管理能力"——这让面试准备时间从30分钟缩到5分钟,而且面试方向更有针对性。
完整走完这个案例,可以清楚地看到整条流程里的人机分工地图。这张地图是流程审计的核心产出——不是哪个步骤用了什么工具,而是哪些决策必须由人来做,以及为什么。
流程审计做完,流程设计好了,但如果只存在小陈脑子里,换个人或者下次招聘就又回到起点。把改造成果固化成 SOP 文档,是这次工作真正沉淀下来的关键一步。这份 SOP 也是第12章"建立 Skill 库"的原材料——你的每一个经过验证的流程,都是一个待沉淀的 Skill。
python parse_resumes.py,等待完成后抽查 /output/parsed_resumes.json 中10条记录,确认字段提取准确。python score_resumes.py,三轮校验自动完成。完成后查看 /output/scores_summary.json 确认数量分布合理。python generate_report.py,将 report_final.html 发给用人部门。HTML文件无需任何安装,浏览器直接打开。有了这份 SOP,下次招聘时小陈只需要做两件事:把新的简历文件放进文件夹,更新岗位配置文件。整个批量处理流程完全复用,不需要重新和 AI 沟通,不需要重新调试脚本。第一次建立这套流程花了一天半;从第二次开始,每次使用只需要两小时左右。
大多数 HR 认为"用 AI 筛简历"等于把简历发给 ChatGPT 问"这个人合适吗"。这样用效果差,因为每次都重新描述标准、没有一致性、也没有可复用的框架。流程审计法的价值,在于把这件事从"偶尔用 AI 帮一下",改造成"一套有标准、有结构、可复用的招聘系统"——这两件事的本质差距,比任何单个提示词技巧都大。
招聘场景的流程审计逻辑,可以直接迁移到白领工作里大量高频重复的场景。以下三个场景用同样的五步方法论做了简版分析,你可以对照自己的实际工作找到对应模式。
注意三个场景里有一个共同规律:最关键的"人工必须"步骤,往往是整条流程的方向性决策节点。招聘里是"边界候选人要不要",销售提案里是"提案方向对不对",合同审核里是"这个风险条款能不能接受"。这些节点的共同特征:一旦判断错了,后续所有工作都要推倒重来。正因如此,它们是最不能省掉人工的地方,也是最值得你花时间和精力的地方。AI 解放出来的时间,应该被集中投入到这些真正需要人的判断上。
学完这一章,你设计的东西叫 Workflow(工作流):步骤固定、触发条件固定、每一步的执行者固定(人还是AI)、最终输出固定。这种确定性是 Workflow 的优势,也是它的边界。
Workflow 和 Agent 的核心区别——步骤是固定的还是动态的
当你发现一个工作流程里有步骤的执行路径开始变得不固定——比如"根据候选人背景动态决定追问哪个方向",或者"根据市场变化自动调整分析维度"——这就是 Workflow 的边界,也是 Agent 开始发挥价值的地方。第13章会在此基础上继续讨论如何搭建自动触发的 Workflow,第14章讲如何让 AI 在更开放的任务里做出自主判断。