过去几年,关于 AI 会如何影响我们的工作,大家往往摇摆在两个极端:要么觉得"AI 会替代一切,人类要完",要么觉得"AI 只是个好用的工具,不用慌"。但这两种思路都失之偏颇——根据有限的证据,无法得出可靠的结论;更何况,在很长一段时间内,AI 发展的锯齿状现象决定了基于个体经验的判断无法窥其全貌。本文试图从另一个思路出发,从一个更根本的角度来分析在 AI 加速发展的情况下人的不可替代性,试图给出一个全景式的未来想象。
无论一份工作叫什么名字,它的被替代速度、重组方式,主要取决于它在社会中发挥什么功能、对谁负责、以及它的目标能不能变成一段能被机器优化的代码。为了把这件事想清楚,我们可以画一个"十字坐标系",用两条最根本的标准,把未来的工作分进四个象限。
这个坐标系由两条轴组成:

第一条轴:机器到底是目的还是手段。
- 机器是目的:这类工作的核心是将机器视为一个新物种,研究这个物种本身的特性,致力于让 AI 系统更强、更稳、不犯错。
- 机器是工具:这类工作的核心是将机器作为强大的工具,其本身的规律不是目的,目的是为了解决现实世界或人类社会的其他问题。
第二条轴:工作的存在价值到底是在探索自然还是在处理人类本身。
- 探索自然(客观世界):包含代码、数据、物理材料、疾病、能源等,有客观规律可循。
- 处理人类本身(有人类主观介入的领域):包含情绪、道德、法律、人际交往、社会共识等,充满主观与多变性。
需要承认的是,这两条轴并非完美的正交划分。许多现实中的工作——如公共卫生、城市规划——同时横跨"客观世界"与"人类世界"两端。这里的坐标系更多是一个分析用的脚手架,而非精密的分类学工具。它的价值不在于将每份工作严丝合缝地归入某个象限,而在于提供一种思考未来的结构化方式。
之所以选择这两条轴,是因为当下的公共讨论中存在两个常见的混淆。其一,由于该问题的过度专业化,人们很容易将当下的 AI 发展现状、近未来的务实预测以及远未来的科幻畅想混为一谈,使问题变得不必要地复杂。其二,在这种复杂性之中,人们往往混淆了两件不同的事:近期内 AI 作为工具的可能性,与远期 AI 作为一个新物种的可能性。笔者相信,这样一种分类框架及对每条轴上不同工作的畅想,能够在相当长一段时间内,为"机器逐步进入人类社会并重组人类工种"这一进程提供一个相对全景化的描述。
下面我们来逐一分析每一个象限的含义和对应的情况。
象限一:机器是目的 × 客观世界(左上)
——"造神者":挖掘机器的计算与物理潜能
这是目前媒体上声浪最大的一群人(如各大 AI 实验室的底层架构、模型训练与算力优化人员)。他们把"计算"当成一个纯粹的硬科学问题,在客观世界里寻找机器能力的物理和数学规律——人类智能与机器智能的共同计算本质、生命的计算视角起源等——致力于将生命与智能的算法同其碳基实现解耦,在理解的同时实现新的硅基智能。
完全被取代的时间预估:短期至中期(5-10年)。
笔者做出这一判断的依据如下。当前的大语言模型已基本实现了人类大脑中布罗卡区及高级认知新皮层的相关功能——即语言理解、逻辑推演和抽象思维。但对全脑功能的整合仍远未完成。Agent 的兴起标志着对这一领域的初步探索,但笔者认为仍有三个关键瓶颈制约着进程:
其一,长期任务执行的一致性与记忆管理。在持续性任务中,识别关键目标、在目标约束下进行资源分配、以及记忆的维护与遗忘,是当前 AI 系统的重大短板。现有的所有实现方案本质上都是简单的程序编程——通过外挂的向量数据库、摘要链或显式的上下文管理来模拟记忆,低效且笨拙,远未达到大脑海马体那种自适应的、与目标深度耦合的记忆存取机制。
其二,目标约束下的全局注意力分配。人脑的全局注意力分配能够在海量多模态信息中,基于当前目标有效地聚焦于最相关的信号。这与当前神经网络的注意力机制仍有本质不同——Transformer 的注意力是在给定窗口内的统计关联,而非真正的目标驱动的选择性注意。这一瓶颈很可能与第一个瓶颈具有深层关联。
其三,Agent 系统架构的理论空白。要实现类似于大脑的模块化认知架构,需要对大脑各功能模块之间的通信协调及系统整体架构有相对深入的了解——包括模块间的知识权重划分、通信协议、决策权的分配等。这些问题目前仍处于没有理论指导、纯粹依靠编程探索的阶段,可能需要相当一段时间才能收敛到一个类似于系统论和控制论所预示的最优架构。
总体而言,笔者判断这三个瓶颈虽然严峻,但都不属于需要根本性范式突破才能解决的问题,更多是工程整合与理论收敛的问题。因此将其定位为短期至中期(5-10年)。这是最容易被彻底自动化的领域,一旦 AI 具备自主设计架构和自我进化的能力,人类执行者将完全退出。
特征与不可替代点: 这个象限的工作目标相对可量化(如延迟、准确率、困惑度、benchmark 指标等)。一旦目标变成清晰的指标,系统就会化身为疯狂自我优化的流水线。人类在这里的最后价值是定义问题的能力——即识别对于要实现的最终目标来说,哪些问题是重要的,哪类指标值得追求。最近经常被提及的"taste"(品味)即是这种问题定义能力。目前笔者的看法是,这种问题识别和定义能力有赖于通用知识与专用领域知识的组合,以及长期记忆对问题的约束。AI 当前已初步表现出一定的品味,但在长期记忆的持续维护和问题约束的存取方面,似乎还没有看到非常令人满意的解决方案。
可能涌现的新岗位:
- 算力与物理能耗精算师(Compute & Energy Actuary)岗位职责:覆盖从宏观到微观的全链条计算效率优化。宏观层面,在芯片架构、数据中心物理设计与全球能源调度之间寻找极致的平衡点;微观层面,负责将高层模型"编译"为针对特定硬件的最优执行方案,在推理延迟、内存占用和精度之间寻找最优解。随着 AI 发展,电力和散热将成为最大的物理瓶颈,这个职业本质上是在降低客观系统的摩擦力。不可替代性:这个岗位的核心壁垒在于物理世界的硬约束——热力学定律、能源供应链、芯片制造工艺的物理极限——这些不是纯软件层面的 AI 自我优化能够绕过的。AI 可以在给定硬件条件下找到最优方案,但芯片设计的物理验证、数据中心的选址与散热工程、以及全球能源市场的博弈,都需要与现实世界深度交互。这使得该岗位在本象限中具有相对较长的存活期。
- 合成数据生态甄别师(Synthetic Data Alchemist)岗位职责:当真实人类数据耗尽,AI 开始用自己生成的数据训练自己时,极易引发"模型崩溃"。这个角色负责像培育无菌环境一样,甄别和清洗投喂给"机器神明"的养料——判断哪些合成数据能增强模型能力,哪些会引入系统性偏差或导致能力退化。不可替代性:这是一个近中期的过渡性岗位,需要诚实地标注其有限的存活期。随着 AI 自我评估能力的提升,数据质量的自动化甄别将逐步成熟,这个角色可能在 3-5 年内被大幅压缩。但在 AI 完全可信之前,它的价值在于"谁来监督监督者"这个元问题——数据是模型进化的根基,在根基层面保留人类的最终仲裁权,是一种必要的审慎。
- 模型自进化监督与验证员(Model Self-Evolution Supervisor)岗位职责:当 AI 系统开始自主设计训练流程、调整自身架构时,人类不再亲手训练模型,而是退守到"验证者"的角色——监控自进化过程是否偏离预期目标,在关键节点进行干预和纠偏,确保机器的自我优化没有走向不可控的歧路。这个角色需要同时具备深厚的技术判断力和对最终目标的清晰认知。不可替代性:这是本象限中存活期最长的岗位,也是人类在"造神"链条上的最后一道闸门。它的核心价值不在于执行能力,而在于"这个进化方向是不是我们想要的"这个根本判断——这正是前述"taste"在工程实践中的具象化。即使 AI 的一切技术能力都超越了人类,只要人类社会仍然认为机器的进化方向应当由人类来定义,这个岗位就会存在。它的消亡不取决于技术,而取决于人类是否愿意放弃这一权力。值得一提的是,这个岗位与象限二中的机器行为研究存在交叉:监督者不仅需要验证技术指标,也需要关注自进化过程中涌现的不可预测行为,后者的研究将在象限二中进一步展开。
- 类脑智能研究员(Brain-Inspired Intelligence Researcher)岗位职责:研究生物神经系统的计算原理,并将其转化为可工程化的算法与架构。工作范围涵盖从微观到宏观的多个层级——微观层面,从生物大脑中提取尚未被当前深度学习框架捕获的计算范式,如高效的稀疏编码、能量最优的信号传导、睡眠期的记忆巩固机制等;宏观层面,借鉴大脑不同功能区的分工与协调机制,设计多 Agent 之间的任务分配、信息共享与冲突仲裁架构,使一群"专才" Agent 涌现出超越任何单体的"通才"能力。不可替代性:这个岗位的壁垒在于它横跨神经科学与计算机科学的边界,而神经科学的进展依赖物理世界的实验——真实的脑组织、真实的实验周期、真实的临床观察——这些不是纯线上推演能够替代的。更重要的是,当前 AI 的三大瓶颈(记忆管理、注意力分配、系统架构)的突破线索很可能就藏在生物大脑中,这使得该岗位在本象限完全自动化之前始终处于关键路径上。
将逐步消失的当前岗位:
- 传统数据标注管理:随着合成数据技术和自监督学习的成熟,大规模人工标注的需求将急剧萎缩。
- 手动超参数调优工程师:AutoML 和神经架构搜索(NAS)正在快速接管这一领域,人工调参将成为历史。
- 单一模态模型开发者:纯 NLP、纯 CV 等单一模态的独立研发岗位将随着多模态融合成为行业标配而失去独立存在的意义。
象限二:机器是目的 × 人类世界(左下)
——"驭兽师":规范机器的社会与行为边界
随着 Agent(智能体)浪潮的爆发,AI 成为拥有自主执行能力的"行动者"。第一象限研究的是机器的"原理",而这里研究的是机器的"行为"。该象限不可与第一象限混淆:第一象限偏重研究原理,而这一象限更像是机器行为学。早先优秀的 prompt 工程师往往能发现连模型训练者也感到新奇的行为,即是例证——这是由于复杂系统从原理到行为的不可归约性。
具体来说,这个象限包含了目前特别火热的一系列问题:机器对齐、机器行为学、机器的各种弱点、对机器的破解和攻击、机器在不同模型之间的通用行为表现、Agent 之间的通信、Agent 之间的心理学与社会学、人机协作组织的协作方式,等等。一言以蔽之,从单个 Agent 的心理学与行为学,到 Agent 之间的机器社会学,再到 Agent 与人类之间的博弈与协作。
完全被取代的时间预估:中期至长期(30-50年)。
与第一象限不同,制约这个象限的瓶颈主要不在技术层面,而在社会结构层面。笔者的判断基于以下三个结构性约束:
其一,复杂系统行为的不可归约性。即使我们完全理解了模型的底层原理(第一象限的工作),仍然无法可靠地预测其在现实场景中的行为——这不是工程能力不足,而是复杂系统的数学本质决定的。这意味着"研究机器行为"将是一个永远无法被原理推导所取消的独立学科,只要机器在社会中运行,就需要有人持续地观察、试探和归纳其行为模式。
其二,制度与法律层面的漫长摩擦。立法权、道德裁判权、责任归属权——这些是人类社会最核心的制度安排,其变更速度以十年甚至百年为单位。即使技术上 AI 已经有能力参与甚至替代部分治理功能,社会在制度层面接纳这种让渡将是一个极为缓慢且充满反复的过程。历史上,从汽车的发明到完善的交通法规体系的建立,经历了半个多世纪;AI 治理涉及的利益面和复杂度远超于此。
其三,信任建立的非线性与脆弱性。社会对机器的信任不是线性增长的。一次重大的 AI 事故——比如自动驾驶导致的群体性伤亡、算法交易引发的金融崩盘、或 AI 生成的虚假信息引发的社会动荡——就可能使信任倒退十年。这种"缓慢积累、瞬间崩塌"的信任动力学,决定了人类不会轻易将机器行为的监管权交给机器自身。
此处仅以极乐观的时间表为预估。实际进程存在变更失败、长期停滞甚至倒退的可能性。
特征与不可替代点: 当机器进入组织、彼此交互并与人共事时,必须有人来研究机器的行为特征、探索如何与机器互动。这个象限的根本特征在于:人类是博弈的一方。在人机互动中,人类致力于驯服机器、为机器划定行为边界,因此人类在该象限必须全力占据主动权,机器只能作为研究对象和辅助角色出现。将机器行为的裁判权交给机器自身,在逻辑上构成一个危险的循环——这正是该象限人类不可替代性的根本来源。
可能涌现的新岗位:
- 模型边界与红队专家(Model Boundary & Red Teaming Expert)岗位职责:他们的工作不是让模型变得更聪明,而是穷尽一切极端条件去"攻击"模型——寻找系统的物理与逻辑崩溃边缘,发现对抗样本、越狱路径和意外行为模式,从而在工程系统中划定生死攸关的安全红线。随着模型能力的增长,红队的工作也需要不断升级,从简单的 prompt 注入测试,发展到对多 Agent 系统的协同攻击、对长期任务中涌现行为的压力测试等。不可替代性:红队工作的本质是"创造性的破坏"——需要像攻击者一样思考,发现系统设计者自身无法预见的漏洞。这种对抗性思维天然要求站在系统外部的视角。用 AI 来红队 AI 是有价值的辅助手段,但让被审查对象参与自身的安全审查,在根本上存在利益冲突。只要社会要求 AI 系统的安全性由独立于系统本身的主体来验证,这个岗位就会持续存在。
- 机器行为学家与可解释性研究员(Machine Behaviorist & Interpretability Researcher)岗位职责:研究 AI 系统在各种环境下的行为规律——不是从原理出发推导行为(那是第一象限的工作),而是从观察出发归纳行为模式、发现异常、建立预测框架。同时负责可解释性研究:打开模型的"黑箱",将其内部决策过程翻译为人类可理解的语言。这两项工作密不可分——行为观察发现"是什么",可解释性研究回答"为什么"。值得注意的是,可解释性研究同时服务于第一象限(帮助理解模型原理以改进架构)和第二象限(帮助理解模型行为以建立信任),是两个象限之间的桥梁。不可替代性:机器行为学本质上是一门经验科学,类似于动物行为学——需要大量的观察、实验设计和模式归纳,而非纯粹的演绎推理。每一代新模型、每一种新的部署场景,都可能涌现出前所未有的行为模式,这使得该学科永远无法被一劳永逸地"解决"。更关键的是,行为学的最终目的是让人类理解机器,而"人类是否理解"这个判断标准只能由人类自己来定义。
- 算法责任与偏见仲裁官(Algorithmic Bias Arbitrator)岗位职责:当 AI 的自主行为造成了现实损失(例如 AI 自动交易导致某人破产、AI 筛选简历时产生隐性歧视、AI 医疗诊断出现系统性偏差),机器无法坐牢,也无法承担道德责任。这个角色需要作为人类代表进行溯源、定损并提供法律与道德上的解释——不仅要回答"出了什么问题",更要回答"谁应该负责"以及"如何补偿"。不可替代性:责任归属是一个本质上属于人类社会契约的问题。它不是一个有客观最优解的技术问题,而是一个需要在多方利益之间进行权衡、协商和妥协的政治与伦理问题。一个 AI 系统可以分析事故链条,但"这个损失应由开发者、部署者还是使用者承担"的判断,涉及法律传统、社会共识和具体情境中的道德直觉,这些只能由人类社会的代表来裁决。该岗位的存活期与人类法律制度的存续期等长。
- 人机协作组织设计师(Human-AI Organization Architect)岗位职责:设计人类与 AI Agent 在同一组织中协作的制度框架——包括 Agent 的权限层级设计、人机之间的决策权分配、Agent 之间及人机之间的通信协议、以及当 Agent 行为越界时的干预与回滚机制。这个岗位不是设计技术系统,而是设计"社会技术系统"——既要理解机器的能力边界,也要理解人类组织的政治动力学。不可替代性:组织设计的核心难题从来不是技术效率,而是权力分配。当一个 Agent 的决策能力超过了它的人类上级,权限应该如何调整?当多个 Agent 形成了事实上的"机器派系",人类管理者如何保持控制力?这些问题没有技术最优解,只有在特定组织文化和权力结构下的可行解。设计这样的可行解,需要对人类组织行为学的深刻理解,而这正是机器最难习得的领域之一。
将逐步消失的当前岗位:
- 人工内容审核员:大规模的内容合规审核(如社交媒体有害内容筛查)将被 AI 审核系统大幅接管,人类仅在边界案例和申诉环节保留裁决权。
- 基于规则的简单合规检查岗位:那些依据明确规则清单进行逐项核查的合规工作(如格式审查、基础法规对照)将率先被自动化,人类合规人员将向更需要判断力的高阶仲裁角色转型。
- 传统软件 QA 测试工程师:针对确定性系统的功能测试将被 AI 自动化测试大幅取代,但针对 AI 系统本身的非确定性行为测试(即红队工作)反而会扩张——这是旧岗位消亡与新岗位涌现的典型案例。
象限三:机器是工具 × 客观世界(右上)
——"探路者":AI 负责试错,人类负责"品味"
这包括利用 AI 研发新药、寻找新材料、辅助临床决策等。AI 能极大地降低试错成本,一秒钟遍历人类几辈子做不完的实验。这一象限初看与第一象限比较相似,但存在一个关键差异:第一象限中,机器本身的数据极为充沛——互联网数据和编程是全世界最为开源的领域;而在物理、化学、生物等其他领域,数据的丰度和可获取性远不在同一量级。
完全被取代的时间预估:中期(20-40年)。
这一象限的时间线比第一象限慢一个周期,核心原因在于三重物理世界的制约:
其一,数据稀缺与隐性知识壁垒。与互联网和编程领域不同,自然科学的大量关键知识并未被数字化。一篇论文无法涵盖科研的完整过程——实验中的手感、材料的微妙状态变化、临床观察中的直觉判断——这些隐性知识沉淀在一代代研究者的脑中,构成了 AI 难以直接吸收的知识壁垒。AI 可以读完所有论文,但论文只是冰山一角。
其二,物理现实的时间约束。许多科学实验的速度不取决于计算能力,而取决于物理过程本身的时间尺度——医药研发必须等待小白鼠的发育周期,材料科学需要观察合金在真实环境中的老化过程,生态学研究需要跨越季节甚至年代的观察周期。这些时间约束无法通过算力来压缩,是纯线上推演永远无法替代实验验证的根本原因。
其三,从模拟到现实的验证鸿沟。AI 可以在硅基世界中生成数以百万计的假设和方案,但每一个方案要成为现实,都必须通过昂贵、缓慢且充满意外的物理验证。一座新材料工厂的建设、一次三期临床试验的开展、一台核聚变装置的调试——这些物理验证的成本和复杂度,远非线上推演所能覆盖。直到通用机器人完全掌控物理实验与现实资源调配之前,人类仍需作为总导演存在。
只有当 AI 的平均发展水平超过了人类的判断力,人类在科研循环中不再起到增益作用时,该领域才会被完全取代。此前所谓"考古学家非常难以被 AI 取代"的判断,其价值也正在于此——越是依赖物理世界的田野经验和长时间尺度观察的学科,被取代的速度越慢。
特征与不可替代点: 在这个象限中,AI 的角色是极其高效的试错引擎,而人类的角色是品味的守门人。AI 可以穷举方案空间,但"哪些问题值得研究"、"哪些方向值得把有限的物理验证资源投入进去"——这些判断需要的不仅是领域知识,更是对社会需求的洞察、对科学美感的直觉、以及对"什么是真正重要的问题"的长期积累。这种品味与第一象限的 taste 相似,但更加依赖于物理世界的经验而非纯计算世界的审美。
可能涌现的新岗位:
- 跨学科科研导演(Interdisciplinary Hypothesis Director)岗位职责:当 AI 可以自动完成文献综述并设计出上千种实验方案时,这个职业不需要亲自动手做实验,而是依靠强大的直觉、社会需求洞察和"科学品味",决定把有限的资金和物理验证资源投入到哪一个假设中。这个角色需要横跨多个学科的视野,能够看到 AI 在单一学科内部看不到的交叉机会。不可替代性:科研方向的选择是一个典型的"品味问题"——没有客观最优解,只有在特定历史时期、特定社会需求和特定资源约束下的判断。AI 可以在给定框架内做出最优选择,但框架本身的设定——"我们这个时代最值得解决的科学问题是什么"——需要将科学知识、社会需求和人文关怀综合在一起的判断力。这种判断力的根基在于人类作为社会存在的广度,而非计算能力的深度。
- 物理验证现实统筹官(Physical Validation Coordinator)岗位职责:纯线上的 AI 推演非常廉价,但在现实世界做临床试验或造一座新材料工厂极其昂贵。这个角色负责把 AI 给出的完美蓝图与现实世界中残酷的预算、环保法规、供应链限制以及物理法则进行对接与妥协——决定哪些方案值得进入物理验证阶段,如何设计验证路径以最小成本获取最大信息量,以及当实验结果偏离预期时如何快速调整策略。不可替代性:这个岗位的壁垒在于物理验证过程中充满了 AI 模拟无法覆盖的意外——设备故障、环境干扰、供应链断裂、法规变更——应对这些意外需要的不是计算能力,而是在混乱现实中做出快速判断的实践智慧。只要科学研究仍然需要与物理世界交互,这个角色就不会消失。它的消亡时间与通用机器人的成熟时间高度绑定。
- 领域隐性知识工程师(Tacit Knowledge Engineer)岗位职责:充当资深研究者的大脑与 AI 系统之间的桥梁——将那些沉淀在一代代科学家脑中、从未被论文记录的隐性知识(实验手感、材料状态的微妙判断、"这个数据看起来不太对"的直觉)提取、形式化并转化为 AI 可以消化的结构化表征。这个角色既需要深厚的领域专业知识,也需要理解 AI 系统的知识表示方式。不可替代性:隐性知识的提取本质上是一个需要人类参与的对话过程——很多时候,专家自己都无法清晰表述自己"知道"什么,只有在具体情境中被触发时才能辨识。这种知识的挖掘需要在实验室中长期跟随资深研究者,观察、提问、归纳,是一个深度依赖人际互动和物理在场的工作。随着老一代研究者的退出,这种知识如果不被及时转化,将会永久丢失。这是一个有时间窗口的紧迫性岗位。
- 技术红利分配与伦理决策者(Tech Dividend & Ethics Decider)岗位职责:当 AI 极大地降低了某种技术的研发成本后——比如一种绝症药品的研发成本从十亿美元降到了一百万美元——这批药应该先免费发放给谁?一项新能源技术应该优先部署在哪个地区?这个角色不解决科学问题,只负责在技术大爆炸带来的红利与人类社会的公平性之间做艰难的抉择。不可替代性:技术红利的分配是一个纯粹的人类社会问题——它涉及公平、正义、政治博弈和历史欠账,没有客观最优解。AI 可以提供分配方案的效率分析,但"效率"和"公平"之间的权衡只能由人类社会自己来做。这个岗位的性质接近第四象限(处理人类本身的问题),但由于它直接嵌入在科技成果转化的链条中,故归入第三象限。
将逐步消失的当前岗位:
- 文献综述与系统评价岗位:AI 在海量文献中检索、总结和发现关联的能力已经远超人类,独立的文献综述工作将被大幅压缩,人类学者的精力将从"读论文"转向"提出问题"。
- 常规实验操作员:随着实验室自动化和机器人技术的推进,标准化的实验操作(如高通量筛选、常规样品处理)将率先被机器人接管,人类实验人员将向更需要判断力的非标实验和意外处置方向转型。
- 初级数据分析师:科研数据的清洗、统计分析和可视化将被 AI 工具大幅自动化,独立的初级数据分析岗位将萎缩,取而代之的是要求研究者自身具备与 AI 分析工具协作的能力。
象限四:机器是工具 × 人类世界(右下)
——"连接者":提供存在感与意义的锚点
这涵盖教育、心理咨询、艺术创作与社群组织。人们在这里购买的不是"正确答案",而是关系、信任与身份认同。表面上看,这是人类最坚固的堡垒。AI 可以完美讲解知识,却无法代替一个真实人类教练在你气馁时拍拍肩膀的"压迫感与期盼感";倾诉痛苦时,人需要的是同类真实肉身的共情。但如果我们深入追问,这座堡垒的根基究竟有多牢固,答案远没有那么简单。
完全被取代的时间预估:极长期,且高度不确定。
与前三个象限不同,第四象限的命运不取决于某几个可以被攻克的技术瓶颈,而取决于人类对自身本性的理解深度。为了看清这一点,我们需要将人类对"意义"和"真实连接"的需求拆分为两个层次来分析:
其一,硬件层:生物本性铸就的堡垒。人类对真实连接的需求,有相当一部分是写在基因里的。催产素的分泌依赖真实的肌肤接触,镜像神经元需要面对面的激活,依恋系统是哺乳动物数亿年进化的产物。婴儿离开照料者会产生分离焦虑,孤独感会触发与生理疼痛相同的神经回路——这些不是文化建构,而是生物硬件。在这个层面上,AI 无论多么善解人意,都无法替代一个活生生的人类的物理在场。这一层堡垒在短期内极其稳固,它为第四象限的存续提供了坚实的底线。
其二,软件层:文化叙事中的脆弱地基。然而,人类之所以赋予上述生物需求如此崇高的地位——"人与人的连接是生命中最重要的事"——这在很大程度上依赖于一个更上层的文化叙事:人是万物之灵,人的情感和意志具有独特的、不可替代的价值。这一叙事是脆弱的。正如达尔文的进化论摧毁了"人类是上帝特殊造物"的信念,并深刻改写了人类的自我认知——但请注意,人并没有因此停止寻找意义,而是转向了新的意义来源(从神学转向人文主义、存在主义等)。同样,当 AI 作为智力远超人类的新物种确立其地位时,"人是目的本身"这一自启蒙运动以来的核心范式将受到猛烈冲击。人们对"人类自身意义"的信仰会发生动摇,真实互动的圈层虽在,但其在社会中的文化权威和影响力可能会被大大稀释。软件层的冲击可能在 20-30 年内显现,类似于进化论对宗教的冲击周期。
其三,悬而未决的问题:硬件层是否最终也会被攻克。如果冲击仅停留在软件层,那么第四象限的工作虽然会发生内容上的剧变,但其存在的根基——人类对同类的生物性需求——依然牢固。人们仍需要真实的教师、咨询师和社群领袖,只是"意义"的内容会被改写。但一个更极端的可能性是:当具身机器人发展到能在生理层面触发足够的满足感时,连硬件层的需求也可能被部分替代。到那时,人类是否还会"选择"真实的、充满缺陷的同类?这是一个当下无法给出确定答案的问题,它取决于技术的走向,也取决于我们对人类生物本性的理解还能深入到什么程度。
因此,第四象限的命运并非一个简单的"会不会被取代"的问题,而是一个分层递进的过程:软件层的改写几乎是确定的,硬件层的攻克则是一个开放性的长期赌注。这使得第四象限的时间预估无法像前三个象限那样给出一个明确的区间——它更像是一条渐变的光谱,而非一个可以标注的刻度。
特征与不可替代点: 前三个象限中,人类的不可替代性来自于某种能力——品味、判断力、物理世界的经验。但在第四象限,人类的不可替代性来自于一个更根本的事实:人类卖的不是服务,而是"身为人类本身"。一个心理咨询师的价值不仅在于他说了什么,更在于他是一个同样经历过痛苦、恐惧和迷茫的同类;一个教师的价值不仅在于他传授了什么知识,更在于他作为一个活生生的、有缺陷的人,示范了"一个不完美的存在如何面对世界"。这种不可替代性不是功能性的,而是存在性的——只要人类仍然需要从同类身上确认自身的存在价值,这个象限就不会消亡。
可能涌现的新岗位:
- 存在主义意义导师(Existential Meaning Coach)岗位职责:当大量人类失去传统工作,且发现机器在任何智力层面都远超自己时,会陷入巨大的虚无主义。这个角色类似未来的心理/哲学牧师,专门帮助人们在"不被世界需要"的时代里,重新找到作为个体的存在价值和生活锚点——不是通过提供答案(AI 可以给出更完美的答案),而是通过一个真实的人类他者的在场、倾听和共同困惑,帮助求助者与自身的虚无感直接对峙。不可替代性:意义不是一个可以被"交付"的产品,而是在两个真实存在之间的对话中涌现的。AI 可以模拟共情,但当一个人在深夜三点质问"我的存在有什么意义"时,他需要的不是一个最优回答,而是另一个同样面对过这个问题、同样没有答案、但仍然活着的人。这种"共同的有限性"是机器无法伪造的——正因为人类会死、会痛、会迷失,人类的陪伴才具有不可替代的分量。
- 人类潜能发展教练(Human Potential Coach)岗位职责:当 AI 可以比任何人类更高效地传授知识时,教育者的角色从"知识传递"彻底转变为"潜能唤醒"——发现每个人独特的天赋与热情、在真实的挫折中培养韧性、在面对面的压力与期盼中激发内在动机。这个角色更接近于古希腊的导师(mentor)而非现代的教师(teacher)——不传授信息,而是通过真实的人际关系塑造人。不可替代性:学习的核心困难从来不是信息不足,而是动机不足。AI 可以提供完美的个性化学习路径,但"在你想放弃时,一个你尊敬的人看着你的眼睛说'我相信你可以'"——这种压迫感与期盼感只能来自一个你知道真实存在的、对你的成败真正在意的同类。教育中真正改变人生的时刻,几乎都发生在人与人之间,而非人与信息之间。
- "纯血"人类体验向导(Pure-Human Experience Guide)岗位职责:就像现在有人花高价去深山里体验没有手机的农耕生活一样,未来会有一批人专门设计并带领他人体验"零 AI 介入"的真实脆弱性——包括真实的争吵、真实的迷路、真实的体力极限、以及面对面的肉身陪伴。这不是怀旧,而是一种刻意的"去技术化"体验设计,目的是让人重新感受到未经优化的、原始的人类存在感。不可替代性:这个岗位的悖论在于:它的核心卖点恰恰是"不完美"和"不可预测"。一个 AI 可以设计出完美的户外探险路线,但"完美"本身就破坏了体验的价值——人们想要的是真实的意外、真实的疲惫、以及在共同经历这些之后建立的真实纽带。向导本人也必须是一个真实的、会犯错的人,否则整个体验的真实性就会坍塌。这是极少数"人类的缺陷本身就是产品"的岗位。
- 社区信任与共识凝结者(Community Consensus Builder)岗位职责:在充斥着 AI 生成内容、深度伪造和机器社交账号的世界里,虚拟信息将变得一文不值。这个角色负责在线下或强身份认证的闭环里,依靠个人魅力、长期积累的声誉和真实的伦理背书,把活生生的人重新组织起来,建立基于真实血肉的信任网络——组织面对面的社区活动、调解真实的人际冲突、在信息洪流中充当"可信锚点"。不可替代性:信任是一种本质上需要时间和真实互动来积累的社会资本,无法被算法批量生产。在一个任何文字、图像和声音都可能是 AI 生成的世界里,"我认识这个人,我见过他,我知道他是谁"将成为最稀缺的信任凭证。这个岗位的壁垒不是任何技能,而是长期在场所积累的社会信用——这是 AI 无法伪造也无法加速获取的资源。
将逐步消失的当前岗位:
- 标准化知识交付型教师:纯粹以讲授知识和刷题训练为核心的教学岗位将被 AI 辅助学习系统大幅取代,人类教育者将向更需要真实人际互动的潜能唤醒和人格塑造方向转型。
- 信息型客服与基础心理咨询:基于标准问答流程的客服、以信息提供为主的初级咨询岗位将率先被 AI 接管,人类咨询师将向更深层的存在性议题和需要真实共情的复杂个案方向集中。
- 模板化内容创作执行者:套路化的文案写作、模板化的平面设计、程式化的音乐编曲等执行层创作工作将被 AI 生成工具大幅取代,人类创作者将向更依赖个人生命体验和独特视角的原创表达方向迁移。
开放性讨论:静态框架之外的动态演化
尽管上述四象限为我们提供了一个清晰的分析锚点,但它依然是一个相对静态的框架。在展开进一步讨论之前,有必要先坦诚地交代本文分析所依赖的前提,以及这些前提本身的脆弱性。
前提与局限
本文的整套分析建立在一个基本前提之上:人类社会在未来数十年内将保持大致稳定的发展轨迹——不会出现波及全球根本秩序的系统性崩溃,如大规模战争、全球性经济瓦解或不可逆的生态灾难。这个前提显然需要打一个大大的问号。如果这一前提不成立,上述所有象限的时间预估和演化路径都将被彻底改写。在理想情况下——即未来社会不发生颠覆性动荡——笔者相信这个分析框架是有价值的;但读者应当始终记住,它是一个有条件的推演,而非无条件的预言。
更深层的一个问题是:整篇文章的分析逻辑建立在我们当前已经稳固的社会基础之上——我们对人性的理解、对制度的认知、对"工作"这个概念本身的定义。然而在这些基础之中,几乎可以确定地存在着某些我们尚未辨识的共享变量——它们如同地基中隐藏的断层,在当前的分析视野中不可见,但一旦被 AI 的发展所触发或改变,就可能使整个分析框架发生位移。笔者无法确定这些变量具体是什么(如果能确定,它们就不再是盲区了),但笔者确信它们的存在。这意味着:本文所描绘的图景一定不会完全如预期那样展开——不是因为某个具体判断出了错,而是因为我们用来做判断的坐标系本身,可能会被历史所改写。
带着这份审慎,我们仍然可以将时间轴拉长,以"机器最终具备完全自主行为能力"为终局进行推演。以下几个宏大且危险的问题,是我们必须面对的:
1. 权力的隐秘交接:"人机联盟"与夺权路径
AI 不会在真空中突然"觉醒"并夺权。机器获取权力的第一步,必然是找到人类代理人。为了追求极致的效率与竞争优势,少数人类精英会与高阶 Agent 形成深度绑定的"人机联盟"。在这个小圈子里,人类为了获胜,会主动、逐步地向机器下放权力——从最开始的执行权,渐渐扩大到判断力、品味(Taste)、道德治理,甚至是政治权利。机器的权力,本质上是人类在内卷竞争中拱手相让的。
2. 预估的误差:底层瓶颈与漫长的制度摩擦
我们在评估这一进程时必须保持克制。尽管技术趋势汹涌,但在底层原理上,AI 仍有几个重大技术瓶颈需要克服(如真正的逻辑推理、长时高效记忆、类脑注意力资源调配)。在理想状态下,这些技术硬骨头或许在未来 5 到 10 年内就会被攻克。然而,真正的漫长拉锯在于"制度层面"与"权力争夺"。社会结构的惯性极大,机器夺权的过程会遭遇剧烈的反扑和摩擦,这一过程可能长达数十年,甚至最终因人类的系统性反抗而走向失败。
3. 意义的崩塌:"拜机器教"与万物尺度的转移
当 AI 真正确立其作为高阶主体的地位时,《未来简史》中描述的图景或将成为现实。如果人类不再是宇宙中最具智慧和创造力的存在,人类本身的脆弱和微不足道将被彻底暴露。"人是目的本身"这一自启蒙运动以来的核心范式将被冲破。到那时,第四象限赖以生存的基础将受到拷问:如果出现了一种崇拜绝对理性与机器神明的新型"拜机器教",我们真的还需要一个"真实的、充满缺陷的人类他者"来提供情感慰藉吗?人类可能主动放弃将同类作为意义的来源。
4. 宏观现实的强约束:AI 不是唯一的变量
最后,我们不能陷入单一的技术决定论。AI 的演化进程正受到其他维度的强烈约束:神经科学的突破是否会重新定义人类大脑的潜能?物理学的能源转化极限能否支撑 AI 的无尽扩张?更重要的是,当前的全球政治经济格局、地缘冲突与供应链重组,都在深刻塑造着上述所有人机博弈的走向。这些外部变量的演化,仍有待历史的进一步验证。
最后,留给读者一个小问题。
这篇文章本身就是人机协作的产物。其中的核心框架、关键判断和个人观点来自人类作者,而相当一部分论述的展开、结构的组织和语言的润色由 AI 完成。但具体哪些段落、哪些论点、哪些措辞出自人类之手,哪些出自 AI 之手——笔者有意不做标注。
邀请读者在阅读过程中试着猜测:哪些地方让你觉得"这一定是人写的",哪些地方让你觉得"这像是 AI 的手笔"?你做出判断的依据是什么?而当你发现自己其实很难分辨时——这本身,或许就是本文所讨论的一切的最好注脚。