
微信公众号
在人工智能技术席卷各行各业的今天,我们常常听到这样的声音:“AI将取代人类工作”、“岗位正在消失”。近日,北京大学光华管理学院吴肖腾教授与姜铠丰教授经过对美国近5亿条招聘大数据的深度分析,揭示了一个更为复杂的图景:AI并没有简单地消灭岗位,而是在重新定义职位的价值——而价值的核心,在于“责任”的归属。
吴教授本次研究构建了一个庞大而精细的数据分析框架,分析了2021年11月至2023年10月间美国51个州的4.8亿条招聘信息,将1271个岗位类别对应到O*NET标准职业分类,并借鉴Frey & Osborne(2017)的计算机化替代风险评估方法,绘制出了一幅“岗位计算机化代替风险图”。
这张散点图揭示的规律完全打破了传统认知。在图中,计算机化替代风险与收入水平之间并没有呈现明显的线性关系,而是呈现出复杂的分布态势。
在图的左上角——低替代风险、高收入区域——聚集着首席财务官、首席技术官、医生、教授等传统高价值岗位。这些岗位因其需要高度的专业判断和复杂决策能力而难以被替代。
而在图的右上角——高替代风险、高收入区域——出现了量化分析师、税务顾问等技术密集型岗位。尽管这些岗位的许多任务可以被AI替代,但它们仍然保持着高收入水平。
最引人深思的是像“钥匙管理员”这样的基础岗位的动态变化。数据显示,该职位在2022–2023年间招聘数量下降17%,薪资下降3.3%;但在2023–2024年间,招聘数量回升27.3%,薪资上升5.5%。这种波动说明,即使在高替代风险区域,某些基础岗位的需求依然会根据市场调节而反弹。
吴教授在发言中强调:“传统意义上,我们认为如果一个职业越容易被取代,他的收入会越低,我们应该观察到一个直线向下的散点图。但实际情况是,计算机可替代风险和收入之间没有任何线性的关系。”这一发现从根本上动摇了我们对于技术冲击的传统理解,促使我们重新思考:在AI时代,到底是什么在决定一个职位的价值和收入?
为了解答这个核心问题,吴教授的研究引入了由咨询公司开发的专业岗位评估框架——海氏岗位评估体系。该体系认为,任何岗位的价值都取决于三个核心要素:责任承担(Accountability)、问题解决(Problem Solving)和知识技能(Know-How)。所以,在人工智能时代下,谁能来“责任承担”成为职位价值最重要的参考维度。
吴教授用生动的例子解释了这一概念:“比方说我们现在有很多新兴的职业,我们做直播。在过去,我们没有一个这样的岗位,我也不知道如果我要招聘一个主播,我需要给主播出多少的薪水。但我需要知道的是这个主播要完成多少的销售额,也就是说在销售额的基础上,我要知道这个主播要承担多少职责。”
这一洞见直指AI时代的价值核心:当技术能够替代越来越多的工作任务时,“责任承担”成为人类独特的价值所在。 企业愿意为“承担责任”支付溢价,因为机器无法真正地为结果负责。
“无论AI在多大程度上能够取代人类,公司始终要回答一个问题:如果出了事情,或者说如果没有达到目标,应该由谁来承担责任?反过来说,如果最终的结果超出预期,公司肯定不会去奖励机器人,公司要奖励的一定是在这个岗位上承担这个责任的人。”
这一框架很好地解释了为什么某些高替代风险的岗位仍然保持高收入——因为它们承担着无法推卸的责任后果。以量化分析师为例,即使AI能够完成大部分数据分析工作,但最终的交易决策和责任仍然需要人类来承担。
通过对收入群体的细分研究,团队发现了一个重要现象:高收入岗位和低收入岗位的市场需求都很大,而中等收入岗位的需求却在明显萎缩——特别是那些计算机化替代风险较高的中收入岗位。
为什么会出现这种“两头强、中间弱”的格局?通过深入分析不同收入群体在工作流程中的角色,研究发现了一个关键模式:
高收入群体从事复杂且技术性强的活动并为之承担责任;
低收入群体从事体力和手工劳动活动并同样承担责任;
而中等收入群体往往只负责中间流程,却不承担最终责任。
吴教授用物流流程的例子进行了说明:“在仓库里面,我们怎么去收一些货件?一开始肯定是有一些统一的系统去分析我有多少件快递,我该怎么分配——这是中等收入岗位可能负责的。但最后一定是有一个快递员完成最后一公里的配送,他需要为把你的快递送上门的最终结果负责。”
研究数据进一步支撑了这一发现。通过分析O*NET工作活动指数,团队发现:需要完成复杂技术活动的工作(D1指数)随着收入分位数上升而重要性增加,主要由高收入群体承担;而需要从事体力和手工劳动的工作(D2指数)则在低收入群体中保持较高重要性。
这一发现揭示了AI时代的一个残酷现实:不承担最终责任的中间环节最容易被技术替代。 这也为理解全球范围内的“中产阶级压缩”现象提供了新的理论视角。技术自动化似乎正在创造一个新的两极分化:一端是高收入的责任承担者,另一端是低收入的责任执行者,而中间的解释、传递、协调环节正在被技术压缩。
既然责任承担如此关键,那么在AI时代,组织应该如何明智地分配责任?研究提出了责任分配的双向流动模型,为企业在AI时代的组织设计提供了具体指导。
当项目范围(scope)扩大时,责任应该向上转移。 比如,当企业决定全面推行AI面试系统时,这个战略性决策的责任应该由HR负责人或企业高管承担,而非一线面试官。因为没有任何一线人员能为整个公司的AI化流程负责。
当项目规模(scale)扩大时,责任应该向下转移。 比如,当企业只在面试的某个特定环节使用AI时,这个执行环节的责任就应该由一线面试官承担,因为他们最熟悉具体业务,且只需为特定环节负责。
这一模型很好地解释了为什么一些企业的AI化尝试会失败。以瑞典金融科技公司Klarna为例,该公司在2022年用AI替代700名客服人员,却在2025年重新招聘人工客服。按照责任分配理论,这是因为公司将本应向上转移的责任(全面AI化的决策)错误地分配给了向下的一线执行层面。
相比之下,IBM的案例则展示了相对成功的转型路径。该公司在2023年进行HR部门裁员,将重复性任务交给AI系统,但随后在“高附加值”的技术、销售、客户面向岗位中重新招聘员工。这种“责任重新分配”而非简单的“人力替代”策略,带来了员工总数的净增长。
吴教授总结道:“当一个技术来的时候,我们需要做实验,我们需要尝试,我们需要在不同的范围内去做一些事情,这个时候我们认为责任应该是向上分配的。当我们确定这个可能性是可以的时候,当我们确定某一个方向确实是我们可以生根的时候,这个责任应该是向下分配。”
在演讲的尾声,吴教授提供了一个深远的历史视角:早在1961年,《时代》杂志就曾发表题为《自动化失业者》的文章,预测自动化将终结大多数非技术岗位。但四年后,同一本杂志却以《社会中的计算机》为题,指出技术已被社会成功吸纳,并没有出现预测中的大规模失业。
这段历史说明,技术恐慌总是周期性地出现,但真正的挑战从来不是技术本身,而是我们如何重新组织生产关系和责任分配。
“历史上的技术恐慌总是周期性地出现,但真正的挑战从来不是技术本身,而是我们如何重新组织生产关系和责任分配。”吴教授总结道,“AI不一定会减少某一类职业的需求,但它一定会以某种方式创造新的需求、改变企业的结构。”
在这个技术快速迭代的时代,理解责任分配的逻辑,或许比追逐技术本身更为重要——因为技术会过时,工具会更新,但人类组织对责任的界定与承担,始终是组织效能的核心。正如研究所揭示的:AI改变的不是工作的本质,而是价值的分配逻辑。 这种理解,无论是对于个人的职业规划,还是对于组织的架构设计,都具有深远意义。因为无论AI技术如何进步,人类对责任的担当,始终是不可替代的终极价值。