
2025年6月14日,“保险与精算四十人论坛·青年论坛2025年年会”在南开大学八里台校区省身楼隆重举行。本次年会由南开大学主办,南开-泰康保险与精算研究院、蚂蚁逸康(广州)信息技术有限公司承办,主题为“数智赋能与保险新质生产力”,聚焦数字化时代保险行业的转型升级与高质量发展。论坛设置主论坛、三场分论坛及一场圆桌论坛。
原中国银保监会副主席梁涛先生在主论坛上发表题为《人工智能应用与保险消费者保护》的主旨演讲,聚焦人工智能(AI)在保险业的应用现状,深入分析了由此引发的消费者保护风险,并提出了针对性应对措施及提升监管科学性的建议。本文根据演讲内容整理而成。

原中国银保监会副主席
梁涛先生

人工智能应用与保险消费者保护
一、人工智能在保险业应用现状
当前AI应用已渗透到保险业核心业务的全流程,主要集中在:风险评估、精算定价与产品开发;智能核保、理赔自动化与反欺诈;智能客服与精准营销客户;代理人赋能与流程优化。
整体看,AI已深度重构保险价值链,从风险评估到客户服务的全链路智能化成为行业趋势。例如,传统保险客服往往依赖预设问答模板,难以应对客户的个性化需求,而AI凭借强大的自然语言处理能力,能够为客户提供更为精准的互动体验;在保险产品推荐方面,AI可以通过分析客户历史行为、健康状况和财务情况,生成定制化保险方案,从而有效提升客户转化率;在核保方面,AI能够快速解析医疗记录、体检报告等资料,为核保人员提供风险评估支持;在理赔环节,AI则可初步审核理赔材料,判定赔付范围,从而减少人工审核工作量并提升整体效率。
与此同时,AI技术的普及正在改变保险代理人的工作方式。AI 的应用可帮助代理人更高效地获取产品信息、生成客户沟通文案以及优化销售策略,加速保险代理人从“销售导向”向“专家顾问”角色的转型。基础的信息传递工作由AI承担,而代理人则专注于提供高价值咨询服务,如家庭财富规划、资产传承及养老规划等。AI的应用,把精算人员从繁重的体力劳动中解放出来,大大提高了工作效率,提高了产品定价的精准性。
AI技术的应用对保险消费者利益保护工作产生了积极影响。首先,有意识的客户已经在用AI为自己做规划,或者验证业务员做的方案和自己买的产品,客户的自我保护意识正在提升。其次,更加“民主化”的AI正在影响消费者行为,进而引起营销逻辑、营销模式的调整。AI引起的“信息平权”正在重塑各方的话语权,所有市场主体都不能忽视消费者行为变化给传统保险业带来的挑战。除了提高专业度、改善服务外,最根本的还是要回到保险业务的本质,真正满足客户需求,以人民为中心。只有这样,企业和业务员才能在新背景下找到自己的价值定位,业务员要从“销售员”逐渐转为“顾问”,从“产品专家”升级为“风险管理专家”,从“关系营销”转向“价值营销”,通过技术赋能实现与客户的双赢。
二、人工智能引发的保险消费者保护方面的主要风险
人工智能的三大要素是数据、算法、算力,保险业是最早应用数据、算法、算力的行业,而精算师们则是数据、算法、算力的最早的使用者和实践者,精算师的行为直接影响着消费者保护工作。人工智能的数据污染、算法“黑箱”、模型缺陷、模型幻觉等潜在风险,同样会影响到保险产品和服务。这些风险隐藏在产品的背后,比起表面上的销售误导和理赔服务不及时等问题更为严重,消费者的利益受到很大的侵害却感觉不到。如,在处理大量客户数据时,如何确保数据的安全和客户隐私不被泄露是一大挑战;再如,由于算法偏见等技术伦理问题,在风险评估和保险定价中,可能会导致不公平的结果;再如,保险公司利用AI分析消费者的财务状况和行为模式进行精准营销,但也可能存在过度销售不适合消费者产品的情况等等。所以我们要清醒看到,技术红利与技术缺陷是共生共存的。这些问题从生成机制上说,大致分为三类。
一是人工智能技术本身具有的内生风险。技术本身无法对源头数据进行真假辨别,加上理解能力有限、模型架构缺陷等原因,人工智能技术在实际应用中呈现出一定的内容重构特征,可能输出看似严谨合理,实际上却与事实或逻辑不符的虚假错误内容,出现“一本正经地说假话”的现象。
二是技术开发过程中的风险。技术的算法歧视是由训练数据的思维映射而引发的。人工智能技术在训练、学习过程中所用数据,都是人类社会以往产生的。生成式人工智能应用的过程,实质上是对过往人类社会模式的特征进行总结并用来对未来社会进行感知和决策的过程,复制并延续传统社会特征自然也就不可避免,使得现阶段生成式人工智能技术无法完全避免歧视。整体而言,人类借助以往的经验、知识储备和信息查证,相对容易识别技术内生风险、开发训练风险引发的虚假错误内容。
三是基于技术应用或滥用的风险。任何技术本质上都是工具,它的伦理困境在于使用的方向问题。对这类风险要辩证看待。第一种情况,在善意的应用中带来了无意的负面影响。例如,网友用人工智能复制消费者受侵害的过程,本意是反映问题,表达观点,但未经本人同意,反而可能让消费者再次承受痛苦,甚至涉及肖像权争议。技术应用初衷是善意的,但因缺乏伦理考量,带来了情感伤害和法律风险。第二种情况,深度造假与恶意应用。由于技术加持,主观恶意的内容造假突破了以往“耳听为虚、眼见为实”的真实性判断方式,语音合成、视频换脸等生成的“超真实”虚假内容冲击着社会信用基础,“眼见未必为实”具有以往谣言难以企及的破坏力,传统社会信用评判方式面临着崩塌风险。而且,恶意应用的危害力因技术的普及而成倍增长。更严峻的情形是,一些主观恶意的虚假错误内容生成已经形成完整的产业链条,从定制虚假内容生产到隐秘传播渠道,呈现出专业化、规模化的特征。与技术缺陷导致的虚假错误内容相比,这类内容更不易被发现,危害程度更大。
三、应对措施
对这些风险挑战不容忽视,保险业在推进AI应用的过程中,必须将其纳入全面风险管理体系。 2023 年8月,网信办等部门发布的《生成式人工智能服务管理暂行办法》,明确要求生成式AI服务提供者需建立数据合规、算法透明、生成内容管理等六大机制;国家金融监督管理总局强调,AI应用需坚持技术中立原则,重点防范数据滥用与算法歧视。因此,在人工智能时代,我们要站稳人民立场,增强服务的多样性、普惠性、可及性,更好保护金融消费者权益。这是对实际上掌握使用数据、模型、算法、算力的精算师们的工作提出新的要求。
第一,数据质量和隐私保护方面。这类风险涉及人工智能技术本身具有的内生风险,应严格依据法律法规和监管要求有序推进AI应用,避免可能的法律风险。保险企业需要建立健全的数据质量管理体系,对外部数据源进行筛选和清洗,确保数据的准确性和可信度。要在保障安全和隐私前提下,推动金融与公共服务领域信息互联互通,释放数据要素潜能。通过采用加密和匿名化等技术,保护用户的隐私。与用户建立透明的数据共享机制,让用户清楚地知道他们的数据将如何被使用,并给予用户选择权。
第二、对人工智能应用过程中产生的新风险进行前瞻性和预判性的防控。此类风险属于技术开发过程中的风险,应加强流程管理和人工干预,避免可能的操作风险。人工智能工具是根据过去的数据进行训练的,可能无法准确反映现实和预测未来,输出的结果存在不可解释性,难以追溯;训练数据中的偏差会导致算法输出的不公平或错误;人工智能驱动的高频交易提升市场反应速度的同时,也放大了波动性。当多数人工智能策略采用相似风险模型时,这种同质化响应可能会加速放大负面反馈循环,进而加剧市场的脆弱性。因此在模型训练中,企业要严格限定共享数据范围,通过防火墙制度的建立,保障数据安全;要加强监测,及时发现安全隐患,关注数据污染。保险机构每天处理海量数据和复杂的交易,信息的准确性和可靠性至关重要。如果虚假信息被灌入训练模型,有可能污染模型的训练数据。一旦部署到风险分析、承保理赔、精算定价、资产配置当中,会引发连锁反应,可能会对消费者和企业自身造成难以估量的损失。
第三、坚持科技向善。此类风险属于基于技术应用或滥用的风险。对善意的应用中带来了无意的负面影响的问题,要加强科技道德规范的检查,对有可能引发消费者痛苦的技术要加强规范,并经常性开展自检和他检,及早发现问题并予以修正。对涉及技术滥用的风险,各市场主体特别是精算师要建立算法审查制度,加强关键环节风险防控,提高算法的可解释性和透明度,避免”模型幻觉”“算法歧视”,防止出现“大数据杀熟”等违背科技伦理的行为,从根本上完善消费者权益的科技保护机制。
四、提高监管工作科学性
保险科技已经深入影响保险服务范式、风险定价机制和风险管控模式。监管机构要适应人工智能技术发展的速度要求,密切关注人工智能技术在行业的应用动态,增强对智能算法风险的穿透式分析能力,健全智能算法的规则制度,提升算法可解释性、透明性、公平性和安全性,防控保险科技风险,促进消费者利益最大化,实现治理目标的有机平衡。
首先,要建立快速反应机制,发挥信号警示作用。传统治理模式的突出特征是治理对象的不确定性低,发展路径和方向比较稳定,政府有充足的时间充实论证、制定相关监管判断的依据,形成完整的制度化的规则体系。而人工智能技术瞬息万变,如果延续这种治理模式,可能尚未完全弄清监管判断标准,治理对象就已经发生了变化。所以,适应人工智能时代的产业发展需要,治理需要突出快速反应机制,迅速对已经出现或有苗头性的风险进行规制,给各有关主体一个信号,并随着实践变化不断迭代,及时完善优化措施。
其次,在工具选择上突出柔性原则。在传统治理中,政府监管是在发现问题、确定问题之后通过正常行政或法律程序制定实施规则的,政策工具以惩处为主,表现为“过程慢、力度大”。而对以生成式人工智能为代表的人工智能产业,新的治理方式在工具的选择上就要反过来,即“下手快、力度轻”。“快”可以减少企业技术路径和商业模式的调整损失;“轻”主要突出方向性和试探性,企业可以马上得知监管态度,知晓对产业治理的方向。引导为主,惩罚为辅。需要注意的一点是,这种工具选择的逻辑是引导而不是惩罚,但如果企业对政府的有关引导视而不见、置之不理造成不良后果,政府也有必要采取严格的监管措施。
第三,在治理关系上形成共同体机制。在传统治理模式中,政府监管具有鲜明的问题导向,监管者与被监管者之间呈现典型的“猫和老鼠”关系。政府主要通过抓企业的负面行为实现监管,尽可能制定一套全面完整的监管规则,而企业由于法规意识不强,为了扩大自己的盈利空间,会通过寻找规则漏洞来逃避监管,二者往往处于对立面。但在人工智能时代,企业很多时候不知道再往前会出现什么样的创新,政府也不知道会产生什么样的风险,监管者与被监管者对未来发展趋势处于“共同无知”的状态,二者之间的对立关系演化为互相依赖关系。这就需要双方在共同利益的基础上开展深入交流与充分沟通,探索找到一个合适的空间,使得企业的创新探索不会突破政府规制的底线,政府的规则不会完全地束缚企业创新的手脚。这样的合作关系有助于政府更好了解技术和市场发展走向,正确评估相关风险并执行合理的规制措施,也使企业清晰洞察产业发展可能带来的风险和政府治理目标,明晰产业发展边界,共同塑造和引领产业的技术路径和商业模式选择,实现政府和企业的合作共赢,满足良好的互动预期。
在人工智能的时代,精算师在保护保险消费者方面承担着更大的责任。技术永远只是手段,保险的核心始终是以人民为中心。只有在效率与温度、创新与风控、发展与责任之间找到平衡点,保险业方能在AI浪潮中行稳致远。


微信扫一扫
关注该公众号
知道了
微信扫一扫
使用小程序
取消 允许
取消 允许
取消 允许
× 分析

微信扫一扫可打开此内容,
使用完整服务
: , , , , , , , , , , , , 。 视频 小程序 赞 ,轻点两下取消赞 在看 ,轻点两下取消在看 分享 留言 收藏 听过