星空智能科技:全球人工智能立法进展及有关建议
人工智能的法律治理是数字时代全球治理体系的关键环节。当前,国际社会纷纷致力于人工智能治理框架的探索与构建。欧盟、美国、韩国、日本、英国、巴西等国家和地区,结合自身实际情况加快立法路径探索。世界经济合作组织、联合国等国际组织也通过宣言、报告等形式,旨在为全球人工智能治理在共识、原则和方向等方面提供积极引导。目前,我国人工智能治理体系日益完善,呈现出国家与地方协同推进、各相关部门共同发力、各垂直领域广泛覆盖的多层次、多维度的治理格局。但也要看到,由于人工智能技术迭代速度快,诸多新问题新挑战不断出现,现有立法仍显零散,甚至在部分领域仍存在空白或滞后,亟需进一步完善。建议在明确立法原则的基础上,合理安排立法内容,稳妥推进立法进程,最终逐步构建起以综合性立法确立总基调,各领域通过专项法律、行政法规和部门规章等进行配套和补充的“1+N”人工智能立法格局。
通过发布战略、指南等文件奠定理论基础和战略方向。2018年4月,欧盟发布《欧洲人工智能战略》,是欧盟人工智能发展的纲领性文件,提出要增加对人工智能的公共和私人投资,并确保建立适当的道德和法律框架。此后,欧盟在明确人工智能发展方向的同时,也开始关注人工智能风险治理问题。例如,2019年4月发布的《算法问责及透明度监管框架》,建议公共部门建立算法问责机制,完善算法监管机制和法律责任制度。2019年4月发布的《可信人工智能伦理指南》明确了可信人工智能的伦理标准,为欧盟人工智能技术规范提供了重要指导。
完善数字法律体系,巩固数字治理全球领先地位。在2020-2024年间,欧盟委员会进行了一系列数字立法。例如《通用数据保护条例》《数据法案》《数字服务法》《网络安全法》等,规范了数据、互联网平台和网络安全等方面的监管,构筑了完善的数字领域监管法律体系。
制定全球首部全面监管人工智能的综合性法律。2024年5月,欧盟《人工智能法案》正式通过,主要包括风险分级分类、通用人工智能模型规则、监管沙盒创新支持等制度,相关内容成为多个国家的治理模板。
总统发布人工智能行政令,为人工智能治理提供基本框架。拜登政府时期发布的行政命令,强调安全、可靠和值得信赖的开发和使用人工智能。特朗普政府第二任期推翻了前任政府相对谨慎的做法,宣布撤销拜登政府的行政命令,并签署多项促进创新的行政命令,例如《消除美国人工智能创新的障碍》《总统科学技术顾问委员会》等。
政府部门发布政策文件,为人工智能治理提供参考指引。除白宫发布的总统行政令外,美国有关政府部门也发布了大量涉及人工智能的政策文件。例如,白宫科技办公室发布的《人工智能权利法案蓝图》,美国商务部发布的《人工智能风险管理框架》等。美国劳工部、教育部等部门也发布了各自管辖范围内的人工智能应用指南。
州层面人工智能立法探索丰富,为联邦层面提供地方立法实践经验。目前,已有超过三十个州正在推动人工智能立法。例如,加利福尼亚州《人工智能透明度法案》《生成式人工智能问责法案》重点关注隐私保护、算法公平性、透明度以及特定行业监管;犹他州《犹他州人工智能政策法案》强调透明和非歧视地使用人工智能,并设立专门的人工智能政策办公室;科罗拉多州《科罗拉多州人工智能法》规定“高风险人工智能系统”开发者和部署者需要遵守的义务等。
随着人工智能的发展与应用,各国均高度重视人工智能治理,纷纷通过立法或制定国家战略和政策文件等方式完善人工智能治理体系。2024年12月,韩国正式出台《人工智能发展与信任构建基本法》,是继欧盟之后,全球第二个制定人工智能综合性立法的主要经济体。该法基于“先采用技术后监管”的原则,旨在扶持人工智能技术的发展,同时也对高风险人工智能领域提出具体要求,体现了发展和安全并重的原则。2025年5月,日本参议院通过《人工智能相关技术研究开发及应用推进法》。该法确立了推进人工智能技术研发和应用的基本理念,但并未设置罚则,整体上仍然是一部促进人工智能发展的“软法”。2025年3月,英国《人工智能(监管)法案》经过上议院一读。该法案为英国人工智能的监管确立相关原则,强调增强人工智能的透明度以及知识产权保护,确保人工智能技术的安全性、公平性和责任性。此外,该法案还规定了设立人工智能管理局、监管沙盒、设立企业人工智能负责人等一系列创新制度。2024年12月,巴西参议院通过了《人工智能使用监管框架法案》,提出了人权导向、基于风险和分级分类的规制方案,在法律层面为人工智能技术的发展设立了道德与安全标准。
积极推进全球人工智能治理原则达成共识。2019年5月,世界经济合作组织发布《人工智能原则》。这是首个政府间人工智能文件,提出了包容性增长、可持续发展和福祉,人权和民主价值观,透明度和可解释性,稳健性、保障性和安全性以及责任制五项基于价值观的原则。2021年11月,联合国教科文组织发布《人工智能伦理问题建议书》。该建议书是首个全球性的人工智能伦理标准,详细探讨了联合国在人工智能伦理治理方面的目标、价值观、原则以及政策领域的行动。2023年11月,28个国家及欧盟共同参与的人工智能安全峰会在英国召开,并共同签署了《布莱切利宣言》。这是全球首份针对快速发展的人工智能技术的国际性声明,呼吁全球各国共同应对人工智能带来的安全挑战。2025年2月,法国巴黎举办人工智能行动峰会,58国共同签署了《关于发展包容、可持续的人工智能造福人类与地球的声明》,强调人工智能的可及性、透明性、伦理性和安全性。
积极推进全球人工智能在垂直领域的治理达成共识。在金融领域,国际清算银行、国际证券事务监察委员会组织等国际组织发布《中央银行使用人工智能》《生成式人工智能与中央银行网络安全》等报告,聚焦人工智能在金融行业的应用现状、机遇与挑战以及潜在风险,为理解人工智能在金融领域的影响和未来监管方向提供了重要视角。在医疗卫生领域,世界卫生组织发布《多模态大模型人工智能伦理和管理问题指导文件》,为开发、监管和使用这些技术的人员提供风险识别和管理的指导。在工业领域,联合国工业发展组织成立全球工业和制造业人工智能联盟以及非洲工业4.0与智能制造联盟,旨在扩大国际伙伴关系,通过利用前沿技术的潜力指导成员国实施数字化转型和人工智能项目。在通信领域,国际电信联盟发布《人工智能治理日——从原则到落实》专题报告,呼吁各国政府、企业及社会各界加强合作,共同探索建立一套全面、有效的人工智能治理体系。
发达经济体和发展中国家均高度重视人工智能立法。目前,欧盟、韩国和日本三大主要经济体已制定了综合性人工智能法,巴西等发展中国家也积极行动,通过立法推动人工智能治理。这些国家的积极实践体现了全球在人工智能立法的探索与进展,反映出国际社会对促进人工智能健康发展的日益重视。
综合运用多种手段推进人工智能治理。一是强调通过法律规则构建基础性、红线性制度规范,明确人工智能技术的开发、应用和管理等方面的法律责任,为治理提供明确的法律依据。二是强调通过政策文件引导、激励相关各方参与人工智能治理实践,通过发布相关的倡议、指导意见等政策文件,明确人工智能治理的方向和重点,更具灵活性与及时性。三是强调通过标准规范为人工智能治理提供操作指南,制定人工智能系统的性能标准、数据标准、算法标准等,确保人工智能技术的可靠性和安全性落地。
人工智能的立法路径有所不同。以欧盟为代表的国家和地区采取了统一综合的立法路径,强调在整体层面统一立法以确保法律稳定性。《欧盟人工智能法案》是世界上第一个针对人工智能的综合横向法律框架,也是全球首部综合性人工智能立法文件。韩国、日本等国也采取了类似的立法路径,陆续通过各自的人工智能法案。而以美国为代表的国家则通过分散立法的立法路径,针对人工智能带来的具体问题进行“回应性”立法。在联邦层面,美国目前没有人工智能综合性立法,相关的立法提案主要聚焦透明度、知识产权、虚假信息、以及AI应用于国防、军事、网络星空智能科技安全、金融、自动驾驶等垂直场景产生的“AI+”等治理议题。各州也根据自身的发展需求和特点,进行了大量自发零散的治理探索。
人工智能立法内容的侧重点不同。部分国家和地区的人工智能法案较为严格刚性,在内容上侧重制定一部“监管法”。例如,欧盟确立了以风险等级为导向的全面监管框架,将人工智能系统划分为不可接受风险、高风险、有限风险和最小风险四个风险等级,对其实施差异化监管措施,并对违法行为设置严厉的处罚措施。而部分国家和地区的人工智能法案较为柔性自愿,在内容上侧重制定一部“促进法”。例如,韩国人工智能法案中的宣誓性条款较多,且在处罚方面相对宽松,呈现出“软性治理”模式。
我国现有法律体系为人工智能治理提供了顶层设计和原则指引,从宏观层面确立了治理框架,并通过具体法律条文对相关领域进行了规范和约束。相关性较强的是《网络安全法》《数据安全法》和《个人信息保护法》三部法律,分别从网络、数据和个人信息三个角度对人工智能进行规范与治理,构建了人工智能治理的基础法律框架。此外,其他领域的法律也直接或间接地体现了对人工智能的治理态度。
例如,《促进科技成果转化法》《著作权法》《科学技术进步法》等,都具有将传统领域与人工智能相结合的色彩。
与人工智能直接相关的行政法规虽不多,但也为人工智能治理提供了重要的制度基础。例如,2024年9月公布的《网络数据安全管理条例》,促进了网络数据的依法合理有效利用,保障了网络数据的安全。2024年12月修订的《互联网信息服务管理办法》,规范互联网信息服务提供者备案、评估等业务资质以及提供信息内容的要求、促进互联网信息服务健康有序发展。2025年5月公布的《政务数据共享条例》,提出鼓励和支持大数据、云计算、人工智能、区块链等新技术在政务数据共享中的应用,推进政务数据安全有序高效共享利用,提升了政府数字化治理能力。
部门规章是我国当前针对人工智能治理的主要框架,为人工智能治理提供了更为直接的法律依据。2019年12月,《网络信息内容生态治理规定》明确了网络信息内容生产者、服务使用者和服务平台三类主体的禁止性行为及其应遵守的义务,初步对人工智能系统进行了规制。2021年12月,《互联网信息服务算法推荐管理规定》明确了算法推荐服务提供者的主体责任,旨在防范和化解由于算法应用带来的各种问题。2022年7月,《数据出境安全评估办法》对出境数据的类型、评估办法和管控措施等方面做出了规定,对境内人工智能向境外传输数据,以及境外人工智能向境内提供服务等涉及数据出境的情况进行了规制。2022年11月,《互联网信息服务深度合成管理规定》进一步明确了技术支持者、服务提供者、服务使用者和分发平台的主体责任,规范了深度合成数据的技术管理。2023年7月,《生成式人工智能服务管理暂行办法》是国际上首个针对生成式人工智能安全风险的专门立法,明确了促进生成式人工智能技术发展的具体措施,规定了生成式人工智能服务的基本规范。
部分地方结合本地区发展情况,出台了地方性法规和规范性文件,通过立法试点积累经验,为国家立法提供实践参考。总体基调以促进发展为主,个别省份也开始探索监管方面的相关规则。在地方性法规方面。2022年8月,《深圳经济特区人工智能产业促进条例》是我国首部针对人工智能产业的专项立法,首次明确了人工智能的概念和产业边界,确立了包容审慎监管的原则,并提出了促进产业基础设施建设、拓展应用场景等一系列创新发展举措。2022年9月,《上海市促进人工智能产业发展条例》成为国内首部省级地方性法规,以促进产业发展为出发点,特别针对芯片、智能机器人、智能网联汽车、无人机和无人船等领域设计了一系列促进措施。在地方规范性文件方面。省级探索不断推进,出台了《山西省促进先进算力与人工智能融合发展的若干措施》《广东省推动人工智能与机器人产业创新发展若干政策措施》等文件。地级市探索加速实施,出台了《郑州市支持人工智能创新发展若干政策措施》《武汉市促进人工智能产业发展若干政策措施》等文件。
其他规范性文件、国家标准、行业技术文件等也为人工智能治理提供了依据。例如,《新一代人工智能规划》明确了我国新一代人工智能发展的指导思想、战略目标、重点任务和保障措施。《网络安全标准实践指南—人工智能伦理安全风险防范指引》要求人工智能伦理安全风险防范贯穿研究、设计、应用和使用全生命周期。《人工智能生成合成内容标识办法》进一步发挥内容标识在提醒提示和监督溯源方面的技术作用。《网络安全标准实践指南—人工智能生成合成内容标识服务提供者编码规则》为开展人工智能生成合成内容的文件元数据隐式标识活动提供依据。
一是缺少基础性、综合性的统一立法,相关规定较为零散。目前,我国尚未出台统一的人工智能立法,人工智能治理主要依据现有法律法规。相关规则散见于各个部门法中,或者针对新产生的问题,在既定法律框架下制定单行法规。
二是生成式人工智能内容安全和个人信息保护成为监管重点。在人工智能产品中,生成式人工智能已成为监管的重点。生成内容所引发的个人信息保护等问题,已成为立法关注的核心领域。《生成式人工智能服务管理暂行办法》《互联网信息服务深度合成管理规定》《人工智能生成合成内容标识办法》等均在生成内容方面做出了规定。这表明,生成式人工智能由于生成内容具有高度迷惑性和误导性等特征,亟需进一步加强安全监管。
三是地方立法总基调以促进发展为主。在地方层面,人工智能立法和政策探索普遍以促进产业发展为核心,强调结合区域优势和实际需求,推动技术创新和应用落地。这表明,地方政府普遍认为推动技术创新和产业发展是当前人工智能治理的重要方向。
四是立法滞后于技术发展,人工智能领域存在立法空白。人工智能技术迭代速度极快,现有法律体系尚未针对人工智能的特殊性进行系统修订,导致部分领域存在规定不清、适用困难甚至空白的情况。例如,自动驾驶责任认定、人工智能生成内容的版权归属等关键问题尚未被明确规制,需要通过修订现有法律或制定专门法律来填补相关空白。
一是正确处理好发展和安全的关系。人工智能技术是推动社会进步和经济发展的关键力量,但其发展也带来了诸多风险和挑战。因此,人工智能立法既要鼓励人工智能技术的创新和应用,明确人工智能发展的方向和目标;又要防范其可能带来的风险和危害,明确安全底线,建立健全的人工智能风险评估和监管机制,确保人工智能技术的可控性和安全性。
二是正确处理好综合立法和场景立法的关系。当前,人工智能已广泛赋能医疗、金融、交通等多个行业,某些重点领域出现的新问题、新风险已超出现有社会认知和法律调整的范围,对其进行专门法律规制十分必要。因此,不同立法应体现不同侧重,国家层面的综合性立法应具备基础性和系统性,而各领域则可根据自身特点和需求,制定相应的场景立法,对特定问题进行细化和补充。
三是正确处理好新法和旧法的关系。我国现有的法律体系中,已经涵盖大量与人工智能相关的法律法规。因此,制定新的综合性立法时应处理好新旧法律的衔接关系,避免现有法律与综合性立法之间的冲突矛盾,及时修订和完善旧法中的滞后内容,同时保证新法的制定具有灵活性和前瞻性,为未来技术发展和法律调整预留空间。
四是正确处理好法律规范与伦理准则的关系。法律规范为人工智能的研发、应用和治理提供了强制性的底线要求,而伦理准则则能够引导企业和研发人员自觉遵循更高标准的行为规范,在价值引领、责任自律等方面弥补法律在应对新兴技术复杂场景时的滞后性与局限性。因此,在人工智能立法过程中,应当统筹兼顾法律规范与伦理准则,不仅要通过“硬性”的法律条文明确禁止性、约束性规定,还要将“软性”的伦理原则有机嵌入法律体系。
五是正确处理好政府监管和多元协同的关系。人工智能的治理需要政府、企业、社会组织、科研机构和公众等多元主体的共同参与。应当构建多元协同的治理模式,充分发挥各方的优势与责任,形成协同共治的局面。例如,鼓励企业加强自律,支持社会组织和科研机构开展人工智能伦理研究、技术评估等工作,引导公众提高对人工智能的认知和监督能力等。
六是正确处理好国际合作和本土实践的关系。人工智能技术具有无边界性,其全球化的发展趋势要求各国在立法过程中加强国际合作。一方面,我国人工智能立法应立足本国实践,制定具有中国特色的人工智能法律规则。另一方面,我国也应加强与其他国家和国际组织的合作与交流,确保本国立法与国际规则接轨。
人工智能快速发展的特质,使得在立法起草过程中难以面面俱到地规制所有新兴问题。作为一部人工智能领域具有更高位阶的基础性法律,在内容安排上不宜过于繁琐和细致,而应具有统领性、一般性与综合性。一方面,建议在立法中明确立法的根本目的和适用范围,确立人工智能技术、产品与服务在研发和应用过程中应当遵循的基本原则,充分彰显我国在人工智能治理领域的核心理念与基本立场,为后续条款提供指导和依据。另一方面,建议在立法中提炼和整合现有法律的共性内容,明确宏观层面的支持和促进机制、监督和管理制度、人工智能研发者和提供者的基本义务等基础制度。既能有效凝聚各界的共识,为当前的治理提供基础框架,又能为未来的法律的修订和完善预留空间,避免统一立法可能带来的僵化和滞后等问题。
避免仓促立法,而将监管过早过重地提上日程。一方面,建议立足“促发展”的主基调。目前,我国人工智能正处于加速发展的关键阶段,展现出活跃的创新和巨大的潜力。如果此时急于加强监管,可能会抑制企业创新活力,不利于产业的可持续发展。因此,建议当前在不突破红线底线的前提下,为产业发展营造自由宽松的发展环境。同时,目前可通过规范性文件、国家标准和行业标准等形式,围绕科技发展、伦理规范、数据安全和法律责任等核心问题作出明确要求。另一方面,建议注重经验总结。当前,人工智能技术迭代迅速,实际应用中不断涌现新情况、新问题。相比之下,行业最了解本领域的实际需求,地方立法更能反映各地发展特点。因此,建议优先针对重点领域和突出问题出台专门立法,鼓励地方先行先试,不断积累和总结行业与地方的治理经验,再将有效的制度和共性问题的解决方案上升为全国性的综合立法。
坚持循序渐进,适时推动基础性、综合性的人工智能立法。人工智能立法应充分结合我国国情,循序渐进、稳步推进。建议在人工智能产业发展更加成熟、行业和地方积累的实践经验更加丰富、国际治理与竞争环境持续变化,以及各类风险亟需一部上位法有效回应时,适时启动基础性、综合性的人工智能立法工作。形成与我国发展阶段、产业实际和社会需求相适应的人工智能法律体系,通过建立统一的法律框架和基本原则,为人工智能治理提供坚实法治基础,有效支撑人工智能的健康和可持续发展。