核保(Underwriting),又称风险选择或风险评估,是保险公司根据保险标的的风险水平进行审核、筛选、分类,以决定是否接受承保及确定承保条件的过程,核保同时关乎善意投保人利益保护和保险公司稳健经营,在保险业中具有基础性重要意义(汤俊湘,1998;中国保险行业协会,2015)。
人工智能核保(AI-Powered Underwriting,AI-Enabled Underwriting)通过大数据、机器学习算法等新兴技术,大幅加速核保定价流程,实现机器替代人类给出核保结论的转变,是区别于人工核保传统的颠覆性创新。但颠覆性创新的背面有时是创造性破坏。中国的保险监管制度形成和完善于工业社会背景下,对人工智能核保可能引发的风险预判有限,应对相关风险的规则制度有待完善。
为此,本文围绕人工智能核保风险的保险监管展开论述,首先析明人工智能核保与传统人工核保的技术分野及由此衍生的风险谱系,继而归纳应对人工智能核保风险的保险监管原则,以此为基础,构建我国回应人工智能核保风险的保险监管规则。首先明确的是,本文中的人工智能核保系统指核心算法突破对静态规则的依赖,具备自主学习推理能力,能够独立给出拒保、除外责任等非标准体核保结论的智能核保系统。早期的智能核保(自动化核保)系统不在本文讨论范围之内,因为这类系统依赖于预设的核保业务规则,本质上只是电子化的人工核保。此外,为聚焦论题和便于讨论,本文以人身保险核保为主要分析场域。
人工智能核保的显著变化之一是,数据收集从“投保人如实告知”到“让替代性核保数据说话”的转变。这种转变虽然带来减轻投保人告知负担、提升保险展业效率等优势,但也内嵌诸多风险。
第一,目前我国数据相关法律法规更多聚焦于数据安全而非数据质量,数据质量参差不齐,低质量的替代性核保数据可能引致风险评估失真,造成风险状况与承保条件的错配。替代性核保数据引致风险评估失真的情形通常包括:其一,数据相关性不足。其二,数据代表性不足。其三,数据完整性和多样性不足。其四,数据结构化程度低。
第三,金融排斥。保险中的金融排斥是指个人在主流市场上难以获得和/或使用某些符合自身需求的保险产品(EIOPA,2021)。人工智能核保系统使用替代性核保数据可能引致金融排斥,例如,部分投保人如注重隐私保护的人或老年人,由于主观上不喜使用数字工具或因客观条件无法使用数字工具,其替代性核保数据往往缺乏或不足,此时,如果保险公司仅依据或高度依赖替代性核保数据进行核保,投保人要么因数据缺失而无法进入核保流程,要么虽进入核保流程,但因数据不足而导致人工智能核保系统判定其风险程度较高,进而得出加收保费甚至拒保的结论。这些直接或间接的排斥剥夺了被排斥群体管理风险的基本权益,加剧了其在面对风险事件时的脆弱性。
人工智能核保的显著变化之二是,数据评估从“数理查定法”到“机器学习算法”的转变,两者的核心区别在于风险评估过程及结果是否可解释和可稳健验证。人工核保使用的数理查定法(王媛媛和秦蓉蓉,2015;中国保险行业协会,2015)基于“如果-则”(If-Then)的简明逻辑,规则清晰、方法明确,易于解释并可验证。由超强算力支撑的机器学习算法改变了这一局面,其内部运行机制仍不可知,数据评估过程不可解释且输出结果难以稳健验证,这些将加剧和扩张人工智能核保风险。
第一,加剧风险评估失真、核保偏见和金融排斥的风险。目前人工智能使用海量数据进行算法训练,动辄使用上万亿参数,涉及大量交织的线性与非线性关系,能够自主决定解决问题和实现目标的方法(巴菲尔德,2024),整体过程尚不可解释,输出结果不可稳健验证,人们难以知晓其在输出核保结论的过程中具体使用了哪些变量或变量组合、特定变量在最终决策中发挥的作用/权重,以及是否具有充分的精算关联性,这无疑会加剧诸多风险。
第三,多家保险公司对特定模型提供商的依赖可能导致市场集中度增加,引发金融稳定风险。瑞士再保险公司针对中国人身险数字化核保的研究表明,中小型保险公司倾向于从第三方采购模型或采用自建与外购相结合的混合模式(瑞士再保险,2023)。这些第三方提供的产品(服务)可能在商业化程度、标准化水平、稳定性和持续性等方面存在隐忧(龚明华,2025)。当多家保险公司使用第三方提供的相似算法处理相似数据集时,如果出现差错,这种互联性可能放大周期性行为,导致市场参与者的核保结论出现系统性偏差,扭曲市场价格或增加价格关联性(FSI,2024)。
从保险监管尺度来看,比例原则是人工智能核保风险规制应遵循的基本原则。这一原则强调,对人工智能核保的规制应与人工智能核保对投保人、危险共同体和保险人的潜在影响程度相称。比例原则对人工智能核保风险规制的意义体现在以下两个方面。
一方面,由于人工智能核保可能引发风险评估失真、核保偏见、金融排斥、模型风险、保险信任危机和金融稳定风险等诸多风险,应明确用于核保的人工智能整体上属于高风险人工智能,应给予较高程度的监管关注和回应。
另一方面,尽管用于核保的人工智能整体上属于高风险人工智能,但也存在少量风险程度相对较低的核保场景,这意味着虽然此类活动处于核保环节,但根据比例原则,应根据其低风险程度相应降低其规制程度。
从规制主体、方法及节点来看,协同共治原则是人工智能核保风险规制应遵循的另一原则。这一原则强调,在传统的规制主体、方法及节点的基础上,还应将投保人、第三方专业机构、行业组织等多元主体纳入到人工智能核保风险规制的主体网络中,综合运用法律主义方法和技术主义方法,在产生风险的不同节点对人工智能核保风险进行协同共治。
第一,多元主体协同共治。在传统监管理念之下,政府监管部门是唯一的监管主体,遵循“命令—服从”的单向监管模式(吴烨,2019)。面对人工智能核保带来的复杂风险,单一政府监管模式难以应对其不可解释性及快速迭代等特征,亟需构建投保人、第三方专业机构、行业组织等多元主体参与的协同共治体系。
第二,多元方法协同共治。就人工智能核保风险的规制而言,法律主义方法和技术主义方法(Petit,2017)是两种互补且不可或缺的方法。其中,法律主义方法通过法律、行政规章、技术标准等制度性工具,设定保险人使用人工智能核保的基本行为边界。技术主义方法则强调通过技术工具和工程手段,实现对人工智能核保系统内部运行的全流程控制、审查与优化。二者的关系在于,前者提供制度规范,设定技术应遵循的标准、规避技术风险应采取的措施等等,后者嵌入技术保障,通过技术手段执行制度规范,二者结合将弥合法律规定与技术实现之间的落差。
第三,多元节点协同共治。人工智能核保系统作为复杂性系统,不仅产生风险的节点数量多,还因其具有自组织性、自适应性和涌现性(梅夏英,2024)可能产生预期之外的治理风险(张欣,2023),这就使得对人工智能核保风险的规制不宜再采用传统单一节点式监管,而应转向基于多元节点的协同共治。具体包含两层含义:一是全链治理。二是把对数据和算法的规制作为全链治理的关键抓手。
从最终目的来看,利益平衡原则是人工智能核保风险规制应遵循的又一原则。这一原则要求人工智能核保时应保持投保人利益、危险共同体利益、保险人利益之间的利益平衡,不因不恰当核保危及保险人财务稳健和偿付能力,或损害投保人、危险共同体利益。
首先,人工智能核保中的利益平衡要求源自对人工智能核保潜在的利益失调风险的回应。这种失调的表现主要包括:其一,人工智能核保系统在核保中偏重保险人利益,损害投保人和危险共同体利益。其二,人工智能在核保中侧重所有投保人利益,危及保险公司稳健经营。其三,人工智能在核保中侧重部分投保人利益而低估其风险,此时将由危险共同体其他成员补贴这部分投保人缴纳保费之不足,有违危险共同体成员之间的公平,同时危险共同体支付的整体保费低于保险人承担的整体风险,这就既损害危险共同体其他成员的利益,也可能危及保险稳健经营。
其次,利益平衡原则在人工智能核保风险规制中的使用场景广阔。试举二例说明。其一,替代性核保数据使用中的利益平衡。一方面,监管不宜以“一刀切”的方式禁止保险人使用替代性核保数据,另一方面,监管也不宜放任替代性核保数据的无序扩张。这就要求在替代性核保数据使用问题上平衡投保人、危险共同体与保险人之间的利益。其二,机器学习算法运行中的利益平衡。算法核保可以提升核保效率、降低人力成本,并可挖掘复杂数据间的关联关系,提高风险评估的准确性,契合保险公司追求经营稳健与利润最大化的目标。但若对算法运行缺乏适当约束,将可能导致对特定群体的不利分类或定价,加剧金融排斥,损害投保人利益。这就要求规制算法时重视保险人利益与投保人利益之间的平衡。
人工智能核保算法可能加剧和扩张核保风险,因应其复杂性、高风险性,规制人工智能核保算法的最佳模式应属“前端认证+后端审计”模式,该模式的内容构成和制度优势如下。
首先,应建立人工智能核保算法星空体育在线入口的通用设计标准。即在保险监管机构的指导下,由保险行业协会、精算师协会、保险科技公司、算法提供商等多元主体根据人工智能核保场景的特殊性,建立人工智能核保算法的通用设计标准(包括但不限于是否必须使用可解释性算法及具体类型),并赋予其强制性地位。当然,为了防范人工智能核保算法通用设计标准的动态适应性不足风险,还应要求标准制定者定期审查和更新标准(如需)。
其次,前端认证要求。即在人工智能核保算法投入使用之前,由监管认可的独立第三方专业机构对人工智能核保算法进行认证,以确认算法是否符合强制性标准。为鼓励人工智能核保算法的创新与优化,激发人工智能核保的最优潜力,应当明确,在算法认证中,人工智能核保算法的设计若出现与通用设计标准不尽一致之处,不应当然认定其不符合强制性标准,应为算法开发者保留证明其设计目的正当、手段适当的权利。
最后,后端审计要求。即在特定人工智能核保模型投入运行后,由监管认可的独立第三方专业机构定期对模型输出结果进行后端审计。与后端审计相关的一项要求是,保险公司应妥善保存人工智能核保系统所使用的数据及其建模方法的相关记录,以确保其可追溯性和可审计性(EIOPA,2021)。
人工智能核保加剧了投保人的信息劣势。这既由上文所述核保过程引入替代性核保数据和机器学习算法使然,也与当前针对核保的信息规制的粗疏有关。有必要通过以下措施矫正人工智能核保场景下的信息和权益失衡。
第一,在核保前端,要求保险公司履行使用人工智能核保系统的一般信息披露义务。即要求保险公司通过公司官方网站披露等集约化方式,区分不同保险业务,向潜在投保人披露其是否使用人工智能核保系统、是否使用替代性核保数据训练人工智能核保模型及主要数据来源/类型和其表征的风险因素、人工智能核保系统确定核保结论的主要逻辑规则(如不同风险因素对最终输出结果的影响权重及其理由)。
第二,在核保后端,要求保险公司履行针对特定投保人核保结论的具体信息披露义务。即,经特定投保人请求,或在人工智能核保系统作出不利投保人的核保决定时,保险公司需通过核保通知书等形式向投保人披露影响其核保结论的主要评级因素、各自权重及对应数据。最后,保险人履行前述信息披露义务后,若经投保人证明不利核保结论可能存在偏差或错误的,例如投保人系因替代性核保数据的缺失或不足而被拒保或加费的,保险人需通过人工复核等方式核验核保结论。
在人工智能重塑保险行业形态的历史性跨越中,核保的智能化转型既彰显璀璨曙光,亦暗含技术异化的阴影。对人工智能核保风险的保险监管进行深入考察,不仅有助于厘清人工智能核保环节的风险构成及其规制方略,也可为保险价值链中其他环节的人工智能风险规制提供镜鉴,进而统摄保险业智能化转型中复杂风险的回应逻辑,助益保险业高质量发展。