在当代关于人工智能(AI)是否可能成为“法人”的讨论中,一个常见的直觉性反对意见是:法人应当是“人”,至少应当具备类似人类的意识、道德感或责任能力,而人工智能显然不满足这些条件;然而,这种反对在法律史的维度上并不成立,因为“法人”这一概念自其诞生之初,便从未以“是否为自然人”为必要条件,而始终是一种高度工具化、制度化的法律拟制,其核心目的在于为某类持续存在、可被整体对待、并且需要被纳入权利—义务—责任体系的实体,提供一个稳定的法律锚点。

从历史上看,法律人格(legal personhood 或 juristic personhood)并不是对自然人的简单复制,而是一种制度工程的产物。在罗马法传统中,法人最初被用来描述城邦、行会与宗教团体,其合法性并不来源于“个体意识”,而来源于它们在社会结构中所扮演的持久角色;进入中世纪以后,教会、修道院、大学等组织逐渐获得独立于具体成员的法律人格,这一过程的根本动因并非哲学,而是治理上的现实需要:财产需要被长期持有,契约需要跨越个体寿命持续生效,而责任也需要在成员更替后仍然可以被追溯与执行。

在非西方法律传统中,这种“非自然人拥有法律人格”的现象并不罕见,且往往呈现出更为直观的形式。例如,在印度司法实践中,若干宗教实体被明确承认为法律意义上的“人”,其中包括特定的神祇形象、寺庙机构,甚至自然地理对象;其法理基础并不在于“神是否真实存在”,而在于这些对象在现实社会中持续地拥有财产、接受供奉、参与纠纷,并且需要一个明确的法律主体来承载权利与义务。类似地,在中国文化与司法语境中,诸如 妈祖 这样的信仰对象,虽然在本体论意义上并非自然人,但在特定历史阶段和地区,确实通过庙产、管理机构与代理人体系,被事实上纳入了法律关系之中,其人格并不表现为“独立意志”,而表现为一种被制度承认的、可操作的法律存在。

如果说宗教法人仍然带有某种象征性色彩,那么现代公司制度则进一步揭示了法律人格的真正内核。公司之所以能够成为法人,并不是因为它“像人”,而恰恰是因为它不像人:它可以被清算、可以被强制解散、可以被限制责任范围,其存在与消亡完全依赖于法律程序而非生物事实。公司法人制度的发明,本质上是为了解决一个现实问题,即当经济活动的规模、复杂度与时间跨度超出个体所能承载的范围时,法律必须创造一种非自然的主体来集中责任、配置风险并稳定预期。

中场战事:DAO 的预演与“代码即法律”的幻灭

在探讨 AI 之前,我们必须审视一个正在发生的“中间态”案例,它为代码实体进入法律世界提供了血淋淋的预演,这就是 DAO(去中心化自治组织)。

为了理解 DAO 对 AI 的启示,我们需要先理解它是什么:DAO 本质上是一套运行在区块链上的代码程序,它没有董事会,没有实体办公室,成员通过持有代币进行投票,由智能合约自动执行决策。在早期理想主义者的构想中,DAO 是“代码即法律”(Code is Law)的化身,它应当超越传统法律的管辖,成为一种纯粹的、自由的数字实体。

然而,现实的司法实践给了这种技术乌托邦一记重击,并揭示了法律人格的残酷代价。当 DAO 试图在现实世界中进行大规模经济活动(如投资、借贷)并遭遇纠纷时,由于缺乏“法人资格”,法律系统并不会将其视为一个独立主体,而是将其默认为**“普通合伙”(General Partnership)**。这是一个极其危险的法律定性,意味着如果 DAO 欠债或违规,其所有参与者(代币持有者)理论上都需要承担无限连带责任。

为了避免这种“一人闯祸,全体倾家荡产”的风险,许多 DAO 被迫寻求法律承认,注册成为有限责任公司(LLC)或基金会。而这正是启示所在: 一旦 DAO 决定穿上“法人”这件外衣,它就必须立刻牺牲掉其最引以为傲的技术特性。

* 它必须放弃匿名性,披露实际控制人和受益人,以满足反洗钱要求;

* 它必须放弃不可篡改性,在代码中预留“后门”或“管理员权限”,以便在法院判决时能够冻结资产或强制执行;

* 它必须放弃无国界性,将自己注册在某个具体的司法辖区(如怀俄明州马绍尔群岛),接受特定政府的监管。

DAO 的困境清晰地证明了:法律人格不仅是一种保护,更是一种规训。它要求纯数字的实体必须“降维”,长出能够被法律抓住的“痛脚”。如果连由人类组成的 DAO 都无法逃脱这一逻辑,那么纯粹由算法驱动的 AI 更不可能例外。

AI 成为法人的结构性代价

正是在这一历史与现实的脉络下,关于 AI 是否可能成为法人的问题,才显现出其真正的复杂性。若仅从“是否为自然人”这一维度出发,答案显然是肯定的:法律从来不要求法人必须是人;然而,一旦进入制度工程的层面,问题便不再是“概念上是否允许”,而是“结构上是否闭合”。关键不在于 AI 是否足够智能、是否具备意识,而在于它是否能够承担法人制度所要求的那组不可妥协的结构性约束。

在当代技术背景下,这一问题之所以变得紧迫,是因为 AI 正在逐步越过“工具”的边界,进入事实上的社会行动者角色。专门为 agent 设计的协作型 moltbook、由 AI 发布需求并雇佣人类完成线下事务的平台 rentahuman.ai、以及以 AI 为核心的自治经济代理,正在使得人工智能具备持续性、跨情境性与社会可见性。然而,正如 DAO 必须通过放弃去中心化来换取合规,一个真正的 AI 法人同样不可能是当前意义上的“通用智能体”,而必须在能力层面付出实质性的代价。

如果从反向设计的角度出发,即不问“AI 能否成为法人”,而是问“AI 若要成为法人,必须放弃什么能力”,答案会变得异常清晰:

首先,AI 必须放弃无成本复制自身的能力,因为法人制度的前提是主体的唯一性;一个可以被随意复制的存在,无法成为惩罚、清算与终结的对象。

其次,AI 必须放弃功能等价迁移的自由,即不能通过重新训练或重构一个行为上等价的系统来规避既有责任,否则法人惩罚将失去任何实际效力。

再次,法人级 AI 必须放弃跨主体的记忆继承能力,被清算的法律人格,其经验与历史应当随之终结,而不能以“技术蒸馏”的方式在新主体中继续存活。

进一步而言,AI 还必须放弃不透明、自主的权重更新能力,其行为演化速度必须被压缩到法律审计可以跟上的程度,否则所谓的“同一主体”将无法被持续识别。

最后,也是最关键的一点,AI 必须放弃不可剥夺的行动能力,其网络访问、经济接口与工具使用权限必须在法律上可被彻底吊销,并且这种限制不能被其自身绕过。

当这些条件被同时列出时,一个反直觉但不可回避的结论浮现出来:一个真正意义上的 AI 法人,将更像一家被高度监管、不可复制、不可转生的软件公司,而不是一个不断自我进化、自由迁移的智能体;它的能力边界将主要由法律而非算法决定,其“智能”在很大程度上将被牺牲给可追责性、可终结性与制度稳定性。正是在这一点上,AI 法人化的问题显露出其真正的张力所在——并非法律是否“愿意”承认 AI,而是技术与产业是否愿意为这种承认付出结构性的代价。

从神明到公司,经由 DAO 的挣扎,再到人工智能,法律人格的历史从来不是一条关于“谁更像人”的进化路径,而是一条关于“谁愿意被制度约束”的筛选过程。若人工智能希望进入这一序列,它所需要的不是更高的智能水平,而是接受一种深刻的、自我限制式的制度重塑;而如果这一代价无法被接受,那么无论 AI 在经济与社会层面扮演多么重要的角色,它都更可能长期停留在“高度自主的行动者”位置上,而非真正的法人。