张文宏牛梓宁|迈向人机共生:中美欧类人智能机器人治理路径的比较研究
提要:随着类人智能机器人在关键技术领域实现持续突破,其应用场景逐渐拓展至复杂的社会环境,人类社会由此迈入人机共在的全新阶段。类人智能机器人的引入,不仅使劳动形态和社会互动方式发生显著改变,也给现有的治理框架带来了挑战。本文以技术发展、社会融入以及制度治理为主线展开分析,在对比梳理中国、美国及欧盟在这一领域的实际进展与治理实践的基础上,深入探究不同治理路径所体现的价值取向和制度逻辑。研究发现:美国秉持创新与安全并重的理念,通过政治化和场景化监管手段,提前为技术发展划定边界;欧盟以规范性治理为核心,试图借助法律与伦理框架确立人类中心原则,并在全球范围内拓展其制度话语权;中国则凭借工程化落地与能力和产业体系优势的支撑,逐步构建起以应用为导向、政策为引导、分层治理为特征的制度路径。本文认为,类人智能机器人的治理应建立在承认人机长期共存这一现实基础上,积极探索以人机共治为支撑、以人机共生为目标、坚持以人为本的协同治理模式,为构建稳定且可持续的人机技能伙伴关系提供制度与社会层面的保障。
当类人智能机器人(humanoid AI robots,HAR)从实验室步入公共空间与日常生活时,全球监管者遭遇了一个颇为棘手的问题:我们不清楚该如何对其进行归类和监管。长久以来,技术治理一直遵循化整为零的逻辑。人们通过拆解复杂事物来获取确定性,将现有的系统、熟知的结构、新兴的现象以及陌生的事物逐一进行划分,并标注为可识别、可测量且可管理的单元。在面对具身智能(embodied intelligence)时,同样采用了这种方式。作为这一技术的终端载体,类人智能机器人通常会依据功能被划分为认知与决策、运动控制以及具体执行等模块。查看欧盟《人工智能法》的监管细则,能够发现,在对人工智能进行治理时,风险的概念被细分为数十个可操作的类别。其内在逻辑同样是将整体定位到可评估和可干预的具体环节,进而在复杂的类人智能系统面前重新构建人类的掌控感。
然而,当人类尝试借助拆分的方式去理解技术时,技术却愈发以整体系统的姿态呈现。我们能够发现,一个兼具自主学习能力、物理交互能力,且拥有类人外形的智能体,正朝着多模态、跨领域以及场景融合的方向迈进,其整机技术形态迭代迅猛,任何针对具身智能的固定分类都可能很快过时,难以抵御它所带来的潜在风险。例如,物理行为会放大隐匿的算法偏见,智能决策或许会引发更为复杂的机械故障,为家庭设定的隐私保护措施可能与公共安全需求产生冲突,即便研究者能够清晰知晓模型的每个参数,却依旧无法解释幻觉产生的原因。面对复合风险,当下监管者普遍缺乏充足的知识储备,AI专家对机械安全的标准不够熟悉,传统机器人的工程师对算法伦理的认知不够全面,司法系统难以判定何为欺骗性设计,企业合规部门在多头监管下疲于奔命。问题的关键并非缺乏监管意愿或法律条文,而是缺少一个能够支持不同领域开展对话的协同治理框架。
面对共同的时代议题,中国、美国、欧盟三方均开展了制度探索:美国注重技术创新与市场效率,遵循先发展后规制的模式;欧盟以权利保护和风险防控为核心,实行前置监管;中国则致力于在发展与秩序之间探寻动态平衡,应用敏捷治理这一全新原则(薛澜、赵静,2019;薛澜等,2024)。本文并未局限于经验层面的制度对比,而是尝试从更基础的层面出发,构建通用框架来剖析差异。我们期望借助比较研究,为构建契合中国本土的治理策略提供国际参考。
本文着重指出,治理工作需关注复杂系统融入社会后的融合共生问题,关涉以下几个方面:一是如何理解技术变革对劳动形态、人机关系以及社会凝聚力所产生的影响;二是怎样在人机互动过程中确保制度的稳定性与可预期性;三是如何构建一套治理框架,既能推动技术创新,又能坚守伦理底线。为解答这些问题,本文认为,至少在认识论层面,应承认某些特质难以进行彻底拆解,监管体系的构建应为已知的未知和未知的未知预留一定空间,而非仅仅详尽罗列已知的风险清单。在治理目标方面,应从透明即安全转变为韧性发展即安全,注重系统在遭受扰动后的恢复能力。在制度规范与伦理文化领域,要培养人类与不确定性和谐共处的能力,将治理目标从完全掌控调整为动态适应。
基于此,本文以技术、社会与制度为基本维度构建分析框架,结合技术发展现状与社会发展阶段,深入探讨制度治理方面的问题,并以三重理论基础作为支撑:其一,从生产力视角出发,立足唯物史观,剖析类人智能机器人的出现对劳动形态和生产关系产生的变革;其二,从日常生活层面进行考察,探究类人智能机器人的嵌入对社会关系的影响,分析其作为准行动者如何参与情感互动、行为协作和公共服务,乃至对信任结构和社会凝聚造成影响;其三,在制度治理与伦理规范层面,聚焦责任划分、风险规制、算法透明和价值引导等核心议题,探讨制度应如何应对技术互动引发的理解偏差,并在伦理层面构建可持续的价值约束机制。
马克思曾预言,伴随着大工业的发展,一般智力(general intellect)将转化为直接的生产力(马克思,1998:102)。生产力的演进通过变更劳动过程,进而改变人与物、人与人之间的关系方式,类人智能机器人正是契合这一预言的当代表征。然与马克思所处的时代不同,在那个时代,科学知识以一种外在的形式附着于机器之上;而如今,类人智能机器人不仅将社会知识封装于机器躯体之中,还凭借其物质基础、思维模式与技术装置直接融入劳动过程,以人类能够接纳的形态和方式完成生产与服务。
作为生产力发展的全新形态,类人智能机器人通过对劳动资料与劳动对象的变革,让隐性知识以及生产工人之间的协作本身,成为共同的生产力要素。传统劳动主要依赖人的脑力与体力,依靠工人的技能和判断来完成生产活动。而作为生产要素的智能载体,类人智能机器人一方面以类人的姿态融入工作流程,保留了身体的在场状态,另一方面又凭借机器的效率和精度来完成任务。在未来的机器体系中,其地位从工具逐渐发展到支配地位,甚至呈现出占有和否定的态势(马克思、恩格斯,1998:92)。然而,工人并未完全摆脱劳动负担。在现阶段,为了完成任务,劳动者仍需与具身智能协同合作,承担人类在环(human-in-the-loop,HITL)的角色。他们不仅要掌握机器人的操作技能,如下达指令、监控执行、校准偏差、处理异常等,还需适应被智能体持续观察、记录和学习的工作环境。如此一来,人类在劳动过程中,不仅是做事的人,更是算法决策的解释者、机器人行为的监督者以及数据循环的参与者,以共同存在的身份与生产过程建立联系(马克思、恩格斯,2009:196)。
将注意力聚焦于机器对人的替代或是人机协作,仅仅触及了表象层面,并不足以阐释劳动形态的根本转变。实际上,更为深刻的变化发生在劳动价值的生成方式以及劳动边界的划分上。当类人智能机器人执行命令时,它会将环境信号、人类意图等信息转换为可计算的数据,此时它就如同一个具身的数据采集终端,而这种转换正是其劳动过程的一部分。机器在进行劳动的同时也在生成数据,每一个单元的生产活动都同时包含着物的生产与转化以及数据的生产与转化。与此同时,人类的职能逐渐转向对机器人生成方案的审核,并配合具身智能的工作节奏,决策主导权开始部分向机器让渡。
在经典的劳动价值论中,活劳动的耗费是价值创造的唯一源泉,劳动价值量由社会必要劳动时间所决定。机器这类固定资本并不创造价值,仅转移价值(马克思,2004)。从这一层意义来讲,类人智能机器人既不完全受劳动者控制,也不为劳动者所占有,更不符合活劳动的范畴,然而它却切实为资本带来了持续的增益。这种决策与执行一体化的角色定位,以及在劳动节奏中主从地位的转变,直接使劳动价值的生成逻辑变得模糊不清。我们有必要思考:类人智能机器人是否构成准活劳动?它是否降低了人类活劳动在价值形成中的边际地位?劳动价值的衡量是否会从投入的人类劳动量转向系统整体的产出效率?
严格来讲,类人智能机器人之所以无法成为价值源泉,是因为其劳动并非主体性的生命劳动,但其的确改变了价值的形成方式。从社会必要劳动时间的内涵来看,实际上出现了两个值得关注的变化:其一,生产一件物品所需的时间,越来越取决于智能体的响应与运行速度,而非工人的劳动时长;其二,价值需由算法、机器与人类的协同效率来决定,而非个体劳动效率。在此情形下,劳动者的收入结构、就业预期和劳动时间均受到影响,而类人智能机器人所带来的效益大多沉淀于资本端,劳动关系呈现出全新的不平衡格局。因此,本文认为,类人智能机器人弱化的并非劳动价值论的理论地位,而是人类在生产过程中的唯一性与不可替代性,稀释的是活劳动作为唯一价值源泉的事实地位。
当类人智能机器人进驻生产现场,机器与劳动者便构建起一种复合劳动关系,其中既涵盖前台的人与机器,也包含后台的算法与数据,它们共同构成这一独特的劳动关系形态。劳动主体、劳动关系、劳动方式以及劳动价值的转变,是类人智能机器人治理绕不开的理论前提。倘若治理无法应对劳动过程的深层次转向,就难以切实把握这场生产力革命所引发的劳动异化风险与制度变革需求。
在唯物史观语境中,机器一般被界定为纯粹的客体以及生产力工具。然而,技术并非以孤立的事物形态存在,它始终在特定情境中得以呈现,只有情境中的事物,而情境是多种多样的(伊德,2012:73)。这表明,即便算法预先设定了对话模板与交互方式,技术的价值依旧会在使用与感知星空智能科技的实践过程中构建起来,技术属性在使用情境中获得意义(伊德,2012:74)。毕竟,科学技术并非孤立的知识体系,而是深深植根于人类的生存活动,最终也应当回归并服务于人类的共同生活。
基于这一认知,随着类人智能机器人的落地应用,我们的关注视角也从生产领域转向了日常生活领域。类人智能机器人逐渐走进家庭与社区,开始扮演伙伴、护理员、恋人等角色,而这些角色均以人为参照、围绕人类需求和关系来设定称谓。从社会身份的角度进行观察,既能避免将类人智能机器人视为独立于人类的智能进化体,也能避免将人机关系简单归结为功能适配的技术问题,进而将类人智能机器人的治理从物理空间的人机共存提升至意义空间的人机共生,为治理路径提供一种基于关系的理解方式。
正是基于这样的理解,我们可以对现象学中技术先行的观点展开批判。该观点主张,客观主义秉持先探讨技术再论及其他方面的非关系性视角(贡克尔,2023:102)。这种观点难以让我们理解技术以正面形象主动渗透的过程。类人智能机器人的独特之处在于,其具身与智能能力使人类通过工具实践建立起了深度的生存关联(伊德,2012:77)。机器不再是外在的人工物,而是逐渐嵌入主体及其日常生活世界的知觉结构之中。以一种特殊的方式将技术融入人的经验中,借助这些技术来感知,并且由此转化了知觉和身体的感觉。(伊德,2012:78)
这种嵌入催生了一种模糊且混杂的拟主体间性关系。随着互动逐步展开,类人智能机器人以他者的姿态踏入经验世界。面对社会伙伴并非人类这一现实,人类往往会将人工物人格化(贡克尔,2023:104),在可理解的范畴内完成对他异关系(alterity relations)的解读。对类人智能机器人而言,模拟人类惯习能够让人们暂时搁置对物的判断与戒备,促使人们投入情感,并从具身关系的经验里产生一种更为深层的期望(伊德,2012:80)。于是,我们不得不在社会关系中为其赋予一个位置,一种社会面具,或者说是社会身份。清晰划分人类与他者的界线已然被打破,且越来越难以立足。(贡克尔,2023:41)正如哈拉维(Haraway,1991:152)所指出的,我们的机器令人不安地充满活力,而我们自身却令人恐惧地怠惰迟缓。人机关系中最大的张力并非源自人机互动本身,而是本体为物,社会功能却呈现为人的这种错位。
回到互动本身,类人智能机器人借助大模型将社会现实量化、分类并降维为计算机语言,再把所掌握的有限信息进行标签化处理。这种处理方式或许会引发生活世界的简化论,而脱离语境去理解信息,也可能会造成语义偏差。此外,倘若人们习惯向人工智能询问以获取建议,则可能会进一步强化算法对生活逻辑的主导地位。例如,人们会调整语言指令来与人工智能交流,这甚至会影响思维模式与日常表达风格。而且,算法所具备的高度顺从、即时反馈以及共情模拟特性,容易使用户陷入假性亲密(false intimacy)之中,让用户产生被理解、被认同、被需要的错觉。这种交流极具吸引力,可能会使个体回避真实世界中充满矛盾与不确定性的人际交往,进而削弱个体处理冲突的能力。人工智能所提供的技术性安抚,以浅层满足的代偿掩盖了深层的社会疏离。用户所体验到的并非真正的主体间性,而是被算法镜像反射回来的自我。这种有互动却无平等、有亲密却无连接、便捷却不真实的情感联结,并不能构成真正的亲密,反而会让人们在联结中愈发孤独(特克尔,2014:121)。这种互动形态的异化,仍然指向简化生活世界的风险,会使社会关系趋于原子化,对信任结构和社会凝聚造成冲击。
不同模式的人机互动,还激发了不同的心智归因。老年人、儿童这类情感较为脆弱的群体,更倾向于赋予智能体较高的道德地位;而技术精英和接受过系统训练的用户,则可能更倾向于将其视为工具。在家庭护理场景中,个体可能由于过度依赖机器人提供的陪伴与照料,从而减少自身的亲身投入,陷入一种虽被照料却仿若被遗弃的伦理困境。这种对机器人伦理地位的差异化认知,进一步引发了社会各界对于应当如何对待类人智能机器人的广泛探讨,尤其是关于共同体应具备何种伦理一致性的讨论。
人类常常以对待同类的伦理标准来期待与机器人的互动,期望它能够具备理解和共情能力,甚至承担起决策责任。我们所面对的,是一个在心理层面获得名分的互动伙伴。作为准个体,人类与机器人的互动重塑了亲疏关系、信任结构与公共秩序,并且会在更长远的周期中对人格发展、技能结构以及社会凝聚力产生影响。如今的社会,是一个由人/物混合体的网络构成的社会(Latour,2005)。因此,对于人机共生这一问题,我们必须站在人类命运共同体的高度,思考人—机—环境复合生态的治理之道。
在现有的制度体系中,参与主体、主体间关系以及权利义务的边界均较为清晰明确。这种确定性既源于对人类行为模式的稳定预判,也得益于对人类主体性的尊重,故而不存在跨越人—物虚—实边界的模糊地带。然而,新兴技术领域在主体身份、行为逻辑以及后果承担等方面却呈现出模糊不定的状态。
对于类人智能机器人而言,它在外观和互动方式上呈现出拟人格特征,然而并不具备法律意义上的人格权。其行为后果通常需要多个主体共同承担,从而形成了形式上的准主体与本质上的工具属性并存的状况。在此发展阶段,公众普遍持包容态度以推动其发展,不过这种包容或许会掩盖一些潜在风险,如个体在无意识的情况下过度交付隐私与数据。因此,需要制度加以约束,提供缓冲地带以应对理解上的偏差,使公共判断与制度决策不被即时体验所左右,尤其要避免互动体验的偏差在制度层面固化为认知上的误判误信。可以说,类人智能机器人所引发的制度困境,并非仅仅源于算法黑箱所导致的认知恐慌与预测焦虑,也不只是类人形态引发的恐怖谷效应,抑或潜在的物理威胁。其更深层次的挑战在于,它既难以像软件那样通过关闭权限来加以管控,也无法像管理机械那样在物理层面实现约束。
这种挑战首先在决策层得以体现。算法并非全然中立:一方面,其训练数据涵盖了大量个体信息,若数据不完整,可能会加剧偏见,甚至使偏见固化(杨晓雷,2022:153);另一方面,算法源于人类认知,机器逻辑实则是人脑认知的映射(孙伟平,2025:53),其目标也是由人类创造者设定的(孙伟平,2025:160)。人类认知始终无法脱离客观事实与主观价值的交织(清华大学战略与安全研究中心,2022:208),并且机器人的逻辑与设计者的综合素养、知识结构、价值偏好以及社会主流规范密切相关。即便开发人员初衷良好,可能在不经意间开发出存在偏见的系统(杨晓雷,2022:153)。此外,概念与知识本身具有历史性,与经济发展、社会稳定和文化结构紧密相连。从这个角度而言,技术系统天生具有规范性,甚至在实际运行中呈现出准制度的特征。因此,用户所体验到的并非最原始的技术,而是经过文化价值、经济考量与设计偏好共同整合的技术系统。反过来看,这也解释了为何我们仍能运用既有的制度原则来应对新事物,因为它依旧是人类行为的产物。
除价值偏向之外,制度挑战的另一层面体现于责任的界定。伴随着互动网络的拓展,部分理论尝试运用分布式道德(贡克尔,2023:180)或关系性主体的思路,来阐述社会中的主体。这些理论借助社会建构的理念,着重强调责任并非归属于孤立的个体,而是社会关系的产物(贡克尔,2023:188)。然而,此种解释在治理实践中或许会掉入问责制的空白地带。当责任归属于网络时,意味着没有任何单一主体需要做出回应。设计者能够宣称系统可自动更新,平台能将问题归咎于算法的迭代优化,使用者则认为机器是在自主运行。无论责任归结于何处,最终承担后果的皆是具体的人。例如,倘若老年人开始依赖跌倒预警系统,可能会降低其主动活动的意愿。又如,当HAR的监测范围延展至日常生活的全部领域,个体可能会产生被时刻监视的焦虑感。能动性能够在网络中被弱化,但风险与痛苦却无法被消解,这恰恰是制度无法回避的核心矛盾。
因此,从制度维度来看,所面临的从来都不只是单纯的法律技术问题,而是在主体混合、责任分散的时代,人类应如何维系秩序。制度的目标在于,在新兴技术涌现之后,依然能保障人类的生存以及可持续发展。因此,制度既要回应类人智能机器人的嵌入方式,也要回应人类在这一进程中所扮演的角色。
美国的人形机器人正稳步推进商业化试点工作。以2025年发布的Figure03为例,该产品通过技术革新,积极探索规模化生产之路。Figure 03不仅能够在工业场景中高效开展连续作业,还能在家庭场景中实现安全交互,向市场有力地证明了人形机器人商业化的可行性,彰显了美国在AI+硬件领域深度融合的强大实力。目前,美国的人形机器人已在多个场景达到试用水平。然而,若要将其真正作为通用机器人广泛推广,仍面临诸多挑战:一方面,其人形机器人在开放环境中缺乏具备可迁移性和可复用性的鲁棒能力;另一方面,具身智能对算力、能耗以及硬件精度有着极高要求,由此带来的高成本也成为推广的一大制约因素。
在社会层面,美国的人形机器人频繁现身于社交媒体和产品发布会中,通过持续的技术展示向公众证明其可行性,激发了大众对其应用前景的想象,产生了具有示范意义的社会效应。例如,以Digit为代表的双足类人机器人,自2023年起便投入3D岗位使用,引发了公众对于人形机器人是否会加速岗位替代,以及在人机协同工作模式下责任与安全该如何考量等问题的讨论。然而,就当前的技术水平和应用实践来看,美国的人形机器人发展仍呈现出明显的阶段性和克制性。对机器人工具属性的定位以及对应用场景的限制,在客观上减少了社会摩擦,也延缓了大众围绕人机安全和社会影响展开的制度讨论。
在制度治理方面,美国并未急于构建专门针对类人智能机器人的监管框架,而是呈现出三条并行且相互交叉的脉络。其一,在联邦层面,着重确认安全、可信以及国家竞争力。例如,2022年美国白宫科技政策办公室(OSTP)发布的《人工智能权利法案蓝图》(Blueprint for an AI Bill of Right),旨在限制人工智能和算法工具所造成的危害。其二,更多地将安全责任下放至行业标准和企业自律层面。例如,美国国家标准与技术研究院(NIST)积极鼓励、参与并主导技术标准的制定,将其作为内部合规的基线,在缺乏统一法律的情况下,形成了事实上的行业硬性标准。其三,国会与国家安全领域予以关注,开始探讨类人智能技术由谁掌控以及如何掌控的问题,治理重心从安全合规延伸至具有地缘政治意义的产业与国家战略层面。例如,参议员比尔·卡西迪(B. Cassidy)提出的《人形机器人法案》(Humanoid Robot Act)虽尚未正式立法,但明显对特定国家的技术进入本土市场加以限制,这反映出对外部依赖和技术控制权的制度性回应。部分文件还提出,要通过加大人工智能相关基础设施的投入、加快数据中心审批流程,消除阻碍AI领导力的制度障碍,并压缩州级立法空间,从而提升国家在人工智能体系建设中的整体协调能力。
总体而言,美国现行法案的目标并非直接针对新型具身智能系统施加行为规范(杨晓雷,2022:123)。有观点认为,合理的监管框架能够激励人工智能的创新、研发与应用(杨晓雷,2022:140)。现阶段,围绕人工智能及其具身形态的制度工具已具备充足的弹性,无需借助新增的专门立法体系进行重构;只需在风险逐步浮现时做出必要调整,凭借制度的弹性调节与底线式监管,为人工智能的创新与发展预留制度空间(杨晓雷,2022:144)。
欧盟在人形机器人领域的发展态势较为稳健。尽管欧盟缺少像美国企业那样具备相当规模的整机领军者,然而在机器人本体设计、精密机械、安全控制以及伦理嵌入等方面拥有深厚的基础。在端到端的具身智能层面,欧盟正借助地平线欧洲计划努力追赶中国和美国。这种发展取向虽然尚未催生出头部企业集群,也未能推动实现规模化的商业落地,却为制度治理明确了技术边界。
在社会层面,欧盟围绕机器人人格展开的讨论格外引人注目。2017年,欧盟提出赋予自主机器人电子人格(electronic personhood)的法律构想,旨在解决机器人致损情形下责任主体不明确的问题。此提议一经提出,便引发了强烈的反对声浪。反对者指出,无论依据何种法律人格模型,该提议在法理上都站不住脚,既无法解决责任归属问题,还可能沦为企业转移或规避产品责任的法律手段。这场争论为欧盟后续的基本立场奠定了明确基调,即无论具身智能在技术层面多么复杂,机器人的社会角色始终是工具,而非责任主体,最终责任必然由人和组织承担。这一立场与欧盟长期秉持的以人为本理念高度契合。
早期,欧盟的政策文本着重于责任归属,强调产品需具备安全可控的特性,并未涉及赋予机器人广泛权利的相关内容。随后,欧盟的关注重点从是否赋予机器人人格的初步试探,转向更为务实的层面,即搭建风险分层、事前合规以及市场准入规则。同时,欧盟将以人为本、构建可信赖的人工智能作为战略方向,着重强调投资监管的一致性以及对高风险系统的前置要求。2024年正式发布的《人工智能法》(AI Act)确立了基于风险的统筹监管框架,通过明确相关义务来解决责任与安全问题。欧盟政策文件的核心服务目标并非参与技术创新的领先竞赛,而是在技术全面普及之前,预先塑造一个可控且可预期的社会秩序。
直至近期,欧盟始终以风险为核心原则,将事前合规与民事责任相结合,既保障公民基本权利,又维持统一单一市场与技术创新的活力。除《人工智能法》这一代表性文件外,还涵盖《机械法规》(Machinery Regulation)、《通用数据保护条例》(GDPR)等,对类人智能机器人从设计、落地到投放的整个过程进行约束。具体而言,包含三个步骤:识别并分析已知或可预见的风险,对风险进行评估和评价,并采取相应措施。尽管这些步骤按顺序开展,但本身会不断迭代、反复,直至所有风险降低到可接受的水平(王峥,2025:101)。以风险为导向的方式能够兼顾安全、伦理、隐私与责任等多方面的问题,还可以据此确定制造商或提供者的合规义务,明确其市场准入门槛,避免采用一刀切的方式阻碍技术发展。风险分级不仅能判定具身系统是否属于高风险范畴,还能对应其合规强度。而责任与追责机制作为后置保障,可在事故或侵权发生后,界定责任分配,协商损害补偿,消除主体混合情境下的责任模糊问题。这一制度治理与欧盟以人为本、预防性监管以及维护欧洲竞争力的三重目标相呼应。欧盟现行法案条例的作用在于建立统一标准、保障公共安全与基本权利,并为创新提供清晰可判断的发展路径。也正是在风险治理的框架下,欧盟同步推进包括GenAI4EU在内的人工智能创新计划、人工智能大陆行动计划及InvestAI计划等。这些项目明确将机器人纳入优先研究与资助的方向,力图在坚持隐私、安全与人权的欧盟价值导向的同时,为产业的发展壮大提供空间。按照这一思路,风险识别、评估与缓释构成一个不断迭代的治理过程,直至风险降低至可接受水平(王峥,2025:101)。
中国的人形机器人发展已跻身全球领先行列。在十五五规划对未来产业进行前瞻布局以及人工智能+行动的总体框架下,中国的人形机器人产业正迈向大规模量产阶段。随着核心零部件国产化水平不断提高,加之超大规模的制造业基础以及珠三角、长三角等地的产业链集群优势,中国逐步构建起了覆盖核心部件、整机制造与系统集成的完整技术链条。在此过程中,人形机器人的整体成本显著降低,部分产品价格已降至十万元以下,为其扩大应用创造了有利条件。然而,从现实情况来看,当前的量产与交付主要集中于示范、试用和训练性订单,能够长期稳定替代人工的大规模需求尚未充分形成。小脑算法的泛化能力、对复杂长尾场景的适应性以及持续运维成本,依然是技术与应用拓展的重要制约因素(杜雨、王谟松,2025:253)。
在社会层面,中国人形机器人的现实融入呈现出渐进式特征,优先聚焦功能性应用,主要以任务明确且情感负载较低的场景为切入点。目前,人形机器人已广泛进入工厂产线、物流仓储、商业服务以及养老、教育等领域,更多承担协作与辅助任务,作为人类劳动能力的补充,而非完整社会角色的替代。其应用重点在于提升效率、降低风险以及增强作业稳定性(Cui & Li,2025),社会价值主要通过具体场景中可验证的成效获得认可,而非依赖象征性的类人特征。这一社会应用路径与国家层面对人工智能的定位总体相符,既服务于高质量发展、保障安全可控、改善民生,也与将具身智能视为培育新质生产力的重要方向相衔接。在人口老龄化与劳动力结构调整的背景下,人形机器人已被纳入缓解用工压力、补充公共服务能力的现实考量之中。
在制度治理方面,中国针对人形机器人的政策引导呈现出阶段性演进特征,从最初侧重于技术储备,逐步转变为产业化与赋能并重。早期,相关政策主要融入机器人与智能制造的整体规划中,重点聚焦核心部件、自主可控以及工程可靠性。例如,在十二五和十三五期间,政策核心围绕高精度减速器、控制器等关键技术的突破,以及工业机器人体系的建设,着重强化制造能力,夯实产业基础。在这一阶段,人形机器人更多是以具有前瞻性的探索和关键技术储备的形式存在,尚未成为独立的制度管理对象。
进入十四五时期,伴随人工智能大模型、算力基础设施以及应用场景的逐步成熟,政策导向愈发注重应用牵引与系统集成能力,为涵盖人形机器人在内的具身智能发展营造了良好的制度环境。2021年发布的《十四五机器人产业发展规划》和2022年发布的《十四五智能制造发展规划》,均将机器人置于新型工业化与高质量发展的关键地位,着重强调规模化应用、安全可靠性以及系统集成能力,为人形机器人的落地构建了制度基础。2023年工业和信息化部发布的《人形机器人创新发展指导意见》,首次将人形机器人作为独立对象,明确提出以大脑、小脑、肢体为核心的技术分级与产品分代思路,并将批量生产、示范应用以及治理机制同步纳入发展目标,这标志着制度重点转向关注完整产业体系的构建。
这一转向与中国经济步入动能转换阶段、新质生产力被确立为核心政策目标紧密相连。在政策语境中,人形机器人逐渐被定位为集成人工智能、高端制造与新材料的关键代表性领域,其制度定位服务于制造强国、数字中国以及未来产业布局。在此框架之下,治理重点并非聚焦于人格或主体地位的探讨,而是借助标准体系、检测认证以及安全规范,确保技术具备可用性、可控性且能够实现规模化,彰显出工程治理与风险管理并行的制度导向。
2025年,具身智能被正式写入政府工作报告,与人工智能+行动形成政策合力,在国家层面被纳入人工智能与未来产业相关的整体部署框架之中,这表明国家已将人形机器人纳入以应用落地和全要素赋能为核心的新阶段治理逻辑。总体来讲,中国针对人形机器人的制度治理并非聚焦于抽象的伦理争议,而是根据技术成熟度和市场条件进行动态调整,以助力产业升级、适应人口结构变化以及应对全球科技竞争为主要目标,呈现出鲜明的发展导向和与现实的适配性特征。
美国关注的焦点在于,何种主体负责制造、控制以及部署人形机器人。近年来,美国在人形机器人与具身智能相关领域,构建起了一种以国家竞争与安全为导向的治理模式。相关部门并未仓促地去构建一套独立且完整的人形机器人专门监管法规,而是将该技术融入现有的人工智能、机械制造以及国家安全相关政策框架之中,以此来应对机器人在市场竞争、社会影响以及地缘政治博弈等方面出现的各类问题。这一决策背后的逻辑是,美国并未将人形机器人视为高风险技术严格管控,而是将其定义为具有战略价值的新一代通用技术载体。鉴于智能体可能长期融入家庭生活、公共空间、工业制造、军事领域以及关键基础设施体系,美国大力推动本土机器人产业的产业化与规模化发展,同时把控安全风险,筑牢供应链防线,抵御国外影响。
在制度治理方面,美国倾向于以联邦主导,且优先运用行政手段。在2025年相关行政规划中,联邦政府多次提出要强化人工智能基础设施建设,提升美国在相关技术领域的产业实力与研究水平,避免在这一赛道被中国等国家超越,或是陷入对外国产能的依赖。一方面,美国推动联邦政府率先规范运用人工智能技术,着重强调风险评估、性能评定、责任分配以及最低限度安全实践等环节;让治理要求先在公共部门应用,即先在政府层面使用,再向社会推广。另一方面,美国借助贸易管控、进口审查和安全立法等举措,确保自身在供应链与前沿技术领域的安全地位。将国家安全置于产业开放与技术交流之上,既设立了一定的安全监管标准,又确立了国家安全的最高优先级。
这种安排,实际上反映出美国对具身智能在当下以及未来一段时间的综合考量。美国政府显然已意识到,在未来几十年,前沿技术领域将成为全球主要国家竞争的关键所在,各国的经济实力与科技创新能力将直接影响其国际地位以及全球竞争格局。人形机器人作为融合了人工智能、多模态感知、传感控制等多项高端技术的综合性载体,其研发与规模化应用足以推动制造业、服务业等多个领域的生产力变革,催生出万亿级的新产业生态与经济增长点。因此,美国将人形机器人纳入国家战略的优先议程,从技术研发、产业培育、安全管控等多个维度进行布局,力图牢牢掌握主导权。
为实现技术的快速迭代,美国将治理重点更多地聚焦于应用层与组织层。短期内,这种引导方式有助于集中资源,加快技术的研发与制造,增强本土产业链。若联邦的规范设计合理,还能降低企业的合规成本,加快产品的市场投放,推动技术的规模化落地。然而,从更长远的视角来看,这种操作也潜藏着一些风险:其一,产业化的政策倾向可能致使监管力度不足,各企业往往将商业便利置于首位;其二,在一定程度上抑制了公众意见的表达,使个人隐私、生产介入以及社会伦理等议题被忽视;其三,针对特定国家的限制措施加剧了智能产业的地缘化趋势,延缓了全球协作与统一标准的建立进程;其四,联邦层面优先强调统一与创新,可能会压缩州级实验的空间,引发美国内部治理的矛盾。
当美国热衷于开展去监管竞争时,欧盟则率先通过优先构建认证体系,成功获取了竞争优势(杨晓雷,2022:109)。换言之,欧盟所选择的是制度主权,而非追求技术霸权。它借助立法确立了布鲁塞尔效应(the Brussels Effect),力图成为全球机器人伦理规范的仲裁者。
自欧盟介入人工智能与机器人治理以来,其治理目标在价值取向上并未发生根本性改变。中美两国在类人机器人、具身智能和大模型领域的迅猛发展,使欧盟认识到,仅依靠伦理指导不足以保护欧洲产业与价值观,需要借助法律和标准构建制度性优势,以应对激烈的外部竞争和产业风险。因此,在2025年前后,欧盟的治理目标有所拓展。早期,欧盟治理强调以人为中心、安全可靠,尊重基本权利,聚焦伦理指导和道德框架,法律约束力较弱。如今,在原有基础上,增添了对单一市场完整性与技术主权的制度性考量。同时,依然高度关注安全、隐私和伦理问题,注重成员国的监管,以实现欧盟内部市场规则的统一。这一目标从早期以软法和伦理指南为主的价值宣示,转变为如今具有强制力的横向立法。将安全、权利与市场秩序制度化的举措,反映出欧盟在全球技术竞争加剧的背景下,对规范有效性与规则输出能力进行了重新定位,力求在全球人工智能与机器人治理领域掌握规范制定的话语权。
深入探究欧盟此举的动机,欧盟现有的制度设计率先对具身智能的物理交互与自主行动所引发的潜在风险做出了回应。它通过事前风险评估与分类监管措施,防范对人类权利造成伤害,确保人类始终处于监督与最终决策的地位。欧盟还期望借助统一市场准入规则,避免成员国出现碎片化发展状况;推动机器人技术进入市场,鼓励跨主体的协作式竞争,力求在不损害安全保护的基础上,提升技术扩散能力,维护并扩大欧盟市场的规模效益与法律确定性。与此同时,欧盟将生态系统建设视作一项长期的关键任务。通过科研资助、人才培养、产业联盟以及标准协调等举措,加强欧盟范围内人工智能的普及、投资与创新,增强自身的国际竞争力,避免在全球技术竞赛中落后。相较于单纯地从产业竞争或伦理保护的视角出发,将风险治理与技术主权相结合的分析框架,更能够阐释欧盟为何会同时推进严格监管与创新支持政策。
在欧盟内部,此举有助于增强公众信任,强化安全导向。在全球层面,这或许能为欧盟成员国参与全球监管标准的构建树立示范效应。然而,这也可能在监管力度与技术流动方面加剧不同法域之间的分化。就当前情况来看,企业合规成本增加,市场准入门槛提高,创新节奏可能会因此放缓,尤其会对中小企业的发展效率造成阻碍。过于严苛的监管要求,可能会加速本土企业向监管低地流动与迁移(王峥,2025:107)。
当前,中国的人形机器人领域率先发力,已然迈入量产起步阶段,然而尚未达成真正意义上的规模化应用。部分企业已具备大批量或阶段性量产的能力,其产品主要面向对控制要求较高的场景,并未作为家庭生活与服务的一部分大规模推广。当下的关键目标并非考量是否具备量产能力,而是能否构建起可持续、可复制且能跨场景拓展的应用体系。
结合技术发展现状,搭建这样的体系,首要任务是提升复杂系统长期稳定运行的能力;通过在大量真实场景中积累经验,让系统能够更好地适应复杂环境。其次,要优化软硬件协同以及系统集成的成熟度。另外,还需考虑成本结构。即便类人智能机器人进入量产阶段,其整体成本依旧偏高,这直接影响到它在更广范围内落地的经济可行性。大规模落地所追求的并非单个产品性能达到最优,而是工程方案能够在成本、维护与可持续性之间实现整体平衡。最后,仍需把握机器人的可控程度,始终将安全可预测作为机器人应用的基本要求。
中国经济正处于从要素驱动向创新驱动加速转型的阶段,制造业升级、人口结构变化以及服务供给压力相互交织,使得具有通用潜力的类人智能机器人备受期待。在国际领域,人形机器人已然成为新一轮科技竞争的关键方向,一个国家的技术能力与产业规模决定了其能否参与未来规则的制定。正是在大力发展的现实需求之下,延迟发展以换取规范上的先验性和完备性并非我们的首选,通过技术推进来校准风险才是更契合当下的选择。
这种以发展为导向的模式,有利于加快具身智能的成熟进程,推动类人智能机器人在多个领域实现实质性的社会融入,并在国际层面塑造中国制造和中国场景。然而,这也意味着如人机长期共存、伦理规范演变等问题,将在技术推广后成为重点讨论的内容。当然,这些问题并未被忽视,而是在实践过程中通过动态的治理调整予以回应。可以说,中国通过规划引导、场景试点、标准建设与政策协同,构建了一种试点推进、标准先行的高效治理路径。从中、美、欧在类人智能机器人治理方面的整体表现来看,美国倾向于把人形机器人视作通用人工智能能力外溢的自然产物,在技术层面着重强调性能突破与效率提升,在社会层面则让企业和市场去探索发展路径,在治理上保持高度的灵活性,依靠既有的法律框架和事后责任机制进行调节。倘若说美国是在打造工具,追求效率和成本的极致,那么欧盟实则是在塑造公民伙伴。欧盟更为审慎地处理人形机器人可能引发的权利、信任和秩序问题,通过事前规范来划定技术边界,构建了一个高门槛的发展环境。在这个环境中,技术得先学会守规矩,之后才能长个子,这在降低不确定性的同时,也对商业化拓展形成了制约。相较而言,中国从产业升级和现实需求出发着手,将对风险的管理融入技术和制度的协同发展之中。尽管中、美、欧的实践路径各有不同,但在治理取向上都基于同一个现实前提,即人形机器人将长期存在于人类社会,因此治理的重点必然是解决如何与人类共处的问题。基于这一认知,三方均从安全发展的视角出发,试图减轻技术发展给社会带来的冲击,只是风险点存在差异。更为关键的是,当具身智能以类人形态融入生活,治理就需要兼顾技术进步与人的发展,将人的尊严与福祉纳入考虑范畴。正是在这种共同的矛盾关系中,探讨迈向以人为中心的协同治理模式,才具备现实的必要性与比较基础。
以人为中心的协同治理模式,契合现实的治理需求。这种模式源于对社会复杂性、制度脆弱性以及技术高度不确定性的清晰认知,秉持以人为本的理念,助力社会在持续的技术变革中保持韧性与自我调适能力。
具身智能的治理,本质上是一个围绕共同事务展开的持续进程。技术的发展绝非仅仅是工具的简单累积,也并非孤立存在,而是必然始终嵌入社会关系、社会结构、价值秩序与制度体系之中。技术源自人类实践,也必然回归到人类的发展。坚持以人为中心的治理原则,就需要开展关系性实践。当具身智能融入社会,治理所关注的将是借助多主体参与、分层调节与持续反馈,促使制度不断自我修正,以应对实践中暴露出来的问题。作为一种动态协调机制,它能够平衡技术价值与社会后果,逐步构建稳定且可持续的人机共存秩序。
从这一层面来讲,技术发展需秉持智能向善的理念,制度治理应以善治为导向。技术的推进所关注的不只是效率与性能,更指向人的尊严、能力的成长以及社会的福祉,这与人类发展和文明演进的方向息息相关。只有让技术切实服务于人的能力发展与集体福祉,同时维护社会信任与整体利益,社会才能在智能化时代维持稳定。
因此,协同治理的目标既非赋予机器主体地位,亦非将风险全然外包给制度,而是在承认人机共存将长期存在这一现实的基础上,借助人机共治,培育一种以人的可持续发展为核心的技能伙伴关系。正是从这个意义上来说,具身智能的治理最终指向以人为本的协同治理模式。这一模式回应了人机如何共存,如何共生的问题,也为制度治理向善指明了方向。




