引言:AI变革组织的关键变量

AI带来的组织变革实质就是用AI 来替代人。那么AI 究竟能在多大程度上替代人?

许多管理者以为这个问题的答案在算法、算力或数据,我认为这些技术问题都是 AI 驱动组织变革的假问题;我认为真正的变量,其实是人类愿意将自己的大脑功能,有多大比例分包给没有生命的机器——即“人工智能”

愿意二字极为关键——它并非指技术的可行性,而是指人类能否在价值观上,消除将思维外包的道德耻感

一、人脑外包给机器的历史

在人类社会和组织发展进程上,人类将脑力分包给机器并非始于今日。

在我读中学的时候,使用电子计算器解算术题被视为投机取巧,人们认为计算能力是学生应该具备的生理性能力,使用外部工具替代人脑计算能力不符合做学生的道德。人们甚至能接受用算盘,因为至少算盘是手工计算、而非自动计算。

然而,如今多数中学和大学考试已经允许使用计算器,人们普遍接受了计算能力外包的合理性。这背后代表着一种深层次的文化转变:

当一个脑力功能的外包不再被认为不道德,它就成为社会进步的共识。

从算盘到计算器,人类放弃了对基础计算力的执着;我们获取信息的方式从读书、读报,到使用搜索引擎、ChatGPT,我们又在逐渐放弃对记忆力检索力等人脑机能自豪。每一步放弃,都意味着人类更专注于大脑中更高层次的功能——创造、判断与价值取向。

人类在历史上不断放弃自己的能力,是文明演化的常态。但每一次放弃,都伴随着社会的价值冲突与道德再定义

正如我在《民以食为天》所写,三十年前念大学时,不会缝被子被认为是不具备独立生活能力;年轻时成家那会,会做饭、会持家是被社会赋予道德光环的能力,象征勤俭、贤惠与责任感,娶一个不会做饭的老婆会被婆婆嫌弃的,要是“家里不开火”,吃饭顿顿点外卖,则更会被认为是离经叛道。

那时的社会逻辑是:能做的事,必须自己做;不做,就是懒惰。

然而,当全自动洗衣机、智能电饭煲、快餐、外卖、清洁服务普及后,社会开始默默重构这一价值体系——不做饭不再代表不会过日子,反而被视为效率、自由与生活方式的选择

家庭劳动从道德义务变为经济外包;生活技能从个人能力变为服务分工。这种转变的关键,不是技术出现了,而是社会放弃了对某种能力的道德评价,不会缝被子,不会做饭不会记电话号码等不再被认为可耻人类的能力观不是固定的,而是社会文化对何为应当的判断结果。

今天AI出现,带来了类似的心理冲突。当人类把逻辑推理、信息整合、文本写作交给AI,人们又感到一种道德层面的不安——仿佛自己不思考,就是懒惰、不负责任或失去人性。这正是我们曾经对洗衣机、外卖的反应。

二、AI并不替代人,它只是替代人脑某个机能

我在《事找人的企业神经 | 企业数字化的下一代架构》《企业级人工智能 | 你的企业怎么上智能体》文中写过,人是一个由大脑、肌肉、骨骼、神经、血液等组成的系统,在企业活动中,AI替代人,其实是模拟大脑的机能。

而大脑也是一个复杂的系统,按照神经科学原理,大脑分为额叶、顶叶、颞叶、枕叶、边缘系统与脑干等区域,每个区负责不同的机能,目前的AI仅能模拟这些机能中的一小部分,例如逻辑推理、语言生成、知识整合等。

当前我给企业做 AI 培训,经常引用这篇论文里的上图:

 https:///pdf/2504.01990

这意味着AI在组织中替代人,本质上不是替代完整的人类个体,而是某个人将自己部分的脑力机能外包给AI系统,形成人类和机器的协作

对企业而言,这种部分替代正在重塑组织分工。例如,财务分析师可以让AI自动生成洞察报告,市场团队让AI生成内容初稿,法务用AI筛选合同条款。但AI仍无法承担价值判断伦理决策——也正是这些,构成了管理者真正不可替代的边界。

三、批判性思维:下一个被外包的人类技能?

人们对于是否愿意随着技术应用的发展而放弃一部分人脑机能存在着困惑、对立。例如,在十多年前,搜索引擎刚出现时,技术保守主义者批评这种方式会损伤人的记忆力,而移动计算出现则会损伤人的专注力,其中有名的一本书叫《浅薄:互联网如何伤害大脑》,在国内也有很大影响力,我也曾经写过《网络人设和互联网思维》《互联网如何毒害了我们的组织》。

大家认为,人类社会愿意接受逐步放弃记忆力、专注力这些人脑机能吗?我认为不论意愿上是否接受,现实中这样的人脑外包正在持续发展。

类似地,在企业管理的背景下,批判性思维被视为关键领导力行为,参见我过去写的《华为自己从来不说的领导力秘密》《【果总咨询观】 咨询是批判性思维的服务》。但随着大模型在事实认知、逻辑推理上的能力接近人类,一个新的问题出现了:当AI可以做出比人更快、更准、更冷静的分析,人类是否仍需保留批判性思维?

批判性思维是一种复合性脑功能——它依赖记忆、推理、逻辑、语言、注意力控制、情绪调节等多个脑区协同工作。它并不是天生的人文特权,而是一种进化出的认知控制机制,用于帮助人类区分真伪、形成判断,所以,在传统组织管理理念里,强调领导者进行批判性思维的自我发展。

人工智能的大语言模型(LLM)与推理模型(Reasoning Model)的进步,正在逐步侵入批判性思维的功能区。AI已能在以下几个维度上表现出类批判性思维的能力:

批判性思维维度

AI驱动组织变革的驱动力 | 人脑分包意愿

AI 当前能力

代表性示例

逻辑推理

接近甚至超越人类,尤其是符号逻辑任务

GPT-4的推理能力

事实检验

⚠️有限,受幻觉与数据偏差影响

自动事实核查、新闻AI

反论证能力

可模拟多方观点

法律、辩论类AI

偏见识别

⚠️依赖训练数据

审查或伦理AI系统

反思能力/元认知

缺失真正意识到自己在思考

无自我意识机制

AI已能执行批判性思维的逻辑流程,但不能拥有批判性思维的意识目的。这就像AI能解出为什么AB合理的题,却不理解为什么值得去思考这件事

在人类文化中,批判性思维不仅是认知能力,更是伦理自觉。自启蒙运动以来,它代表了个体理性自主判断的人文尊严:

笛卡尔的我思故我在cogito ergo sum——思考成为存在的依据。

康德的人是目的而非手段”——理性判断是人类自由意志的体现。

哈贝马斯的理性沟通”——批判思维是公共理性与民主讨论的基础。

从文化角度看,过去人类普遍认为:一旦把批判性思维外包给机器,人类就不再是理性的主人,而只是逻辑的执行者。

对组织来说,AI替代人类的批判性思维,不是一个技术问题,而是一个文明边界问题。

那么在未来的组织中,人类是否可能更少依赖自身逻辑推理,而更多专注于价值判断、伦理平衡与共情沟通?换言之,思考不再是人类的独享技能,而是人机共创的一部分。

四、管理启示:愿意外包什么人脑机能

对企业管理者而言,AI的落地难题不只是怎么用,而是敢不敢用

很多组织的AI项目夭折,并非因为模型不行,而是员工和管理层心中仍存在对机器取代思考”能不能行、你是否接受一个机器同事给你指令的心理抗拒。

AI采用曲线,本质上是一条认知转变曲线。它要求企业文化从依靠人脑的完美转向信任人机的协作;要求组织重新定义专业能力——不再仅仅是懂业务,而是懂得如何与AI分工

AI的终极问题,不是替代,而是分工的再定义。在组织的智能化进程中,人类并非失去尊严,而是重新划定尊严的边界。

  • AI采纳的障碍在文化,不在技术。企业应通过培训与领导示范,帮助员工重塑“人机协作的价值观。

  • AI治理的关键在分工,而非防御。 明确哪些认知职能可外包、哪些必须保留,是组织智能化设计的核心。
  • 未来AI 组织的管理力的核心是伦理力。 技术的边界可以被算法突破,但伦理的边界只能靠人类自觉守护。
我本文提出AI 组织变革关键是对人脑外包的价值判断,这是个开放式问题,我也没有答案,大家认为在企业管理背景下,人类可以接受哪些人脑机能的外包呢?

欢迎各位从事人工智能企业服务的企业家们加入到由我参与发起的“上海现代服务业联合会人工智能应用服务专委会”,来讨论上面这个问题:

也欢迎大家参与由专委会组织的和沙特人工智能界交流,帮助中国科技企业出海的活动: