近日,快手平台遭遇的黑灰产攻击持续发酵,这场突发的网络安全事件,不仅暴露了复杂技术系统的固有脆弱性,更将一个深层命题抛至公众视野:当社会运行日益依赖技术架构,我们能否寄望保险机制化解AI时代的新型风险?在关于人工智能治理的高阶辩论中,保险的角色始终充满争议——是推动安全升级的“私人监管者”,还是仅能分担损失的“风险兜底工具”?快手事件的连锁反应,恰为这场辩论提供了最鲜活的现实注脚。
学界对这一问题的分歧早已存在。Schwarcz与Wolff的研究直指核心困境:保险公司既缺乏精确评估技术风险的能力,也缺乏深度参与风险管控的动力,快手系统故障引发的系统性影响,正是他们所警示的技术风险复杂性的绝佳例证。而Trout则从行业历史中寻找希望,认为保险业曾在火灾、汽车、核电等领域成功扮演监管角色,通过风险定价、安全标准制定和损失控制,倒逼全行业提升安全水平。两种观点的碰撞,本质上指向了AI治理的核心诉求:我们需要的是政府监管的权威远见与市场机制的灵活高效的协同,而非非此即彼的选择。《互联网法律评论》近期刊发的相关辩论文章,正是希望将这些碎片化的观点拼接成完整的安全治理图景。

在公众认知中,让AI开发者承担损害责任,是提升系统安全性的最优路径。但网络安全与网络保险的发展历程,却给这种认知敲响了警钟。责任机制的落地,必然绕不开保险公司的风险定价与承保环节,而这一环节的固有缺陷,很可能让责任机制的约束效力大打折扣。笔者认为,AI责任保险不仅难以激励企业降低安全风险,反而可能陷入与网络保险相似的困境——保险公司往往基于企业规模、行业属性等粗略指标定价,而非依据实际安全投入与风险控制水平。这种定价逻辑或许能保障保险公司的偿付能力,却向企业传递了错误信号:投资AI安全难以换来保费优惠,自然缺乏持续投入的动力。
保险公司依赖粗略指标定价,根源在于精细风险评估的高难度与高成本。在AI安全领域,历史损失数据匮乏且更新迭代迅速,评估单个企业AI系统的安全性,需要保险公司不具备的专业技术能力,更需要巨额的前期投入。而在快速扩张的市场竞争中,多数保险公司更倾向于放弃这种高成本评估,转而采用简单粗放的定价模式。这一动态并非AI领域独有,早已在网络保险市场完整上演,其失败经验值得AI治理者深刻借鉴。
回溯网络保险的发展历程,我们能清晰看到理想与现实的鸿沟。2002年,美国加州通过SB 1386法案——美国首部数据泄露通知法,要求企业主动报告影响加州居民的个人信息泄露事件。该法案不仅让公众得以知晓信息安全状况,也催生了数据泄露保险的需求,推动了网络保险行业的起步。如今,网络保险的承保范围已覆盖数据泄露、拒绝服务攻击、勒索软件、监管调查等多种风险,投保企业需填写冗长问卷,详细说明安全实践,甚至需落实多因素身份验证等特定安全控制措施。
即便如此,网络保险最初被寄予的“提升全行业网络安全水平”的期望仍未实现。2012年10月,美国国土安全部曾召集专家圆桌会议,明确将网络保险市场发展视为提升网络安全的关键抓手。当时公私部门普遍认为,保险业具备政府难以比拟的优势:可通过理赔数据收集风险信息,精准识别有效安全工具,以保费折扣激励企业落实安全措施,且能快速响应动态变化的网络威胁——毕竟保单每年可更新,而政府立法往往需要数年。
但现实是,网络保险市场虽持续壮大,却未能建立统一的网络安全最佳实践,也未通过保费杠杆推广有效的安全控制措施。最终成型的网络保险行业,仅能帮助企业分担安全事件的经济成本、规避法律责任,却未能真正强化企业的网络安全防护能力。这一失败并非偶然,而是源于网络保险治理的三大核心困境,而这些困境,正逐渐在AI领域显现。
其一,风险数据匮乏且动态多变,难以构建可靠模型。网络安全事件的未上报率极高,且攻击者会根据目标防护措施动态调整策略,去年的风险数据无法预测未来的攻击行为。2019-2020年勒索软件索赔激增,便让网络保险行业猝不及防,暴露了其风险预测能力的短板。AI领域面临着更严峻的挑战:目前关于AI危害的有效数据极少,且多来自企业自愿公开的报告,而企业往往有强烈的动机掩盖失败案例,导致我们难以掌握危害发生的机制,更无法形成有效的预防方案。即便未来数据收集有所改善,保险公司也可能因担心数据泄露加剧投保人的法律责任,而主动放弃详细数据收集——这些数据可能被原告利用,构建更有力的诉讼理由。
其二,企业安全状况评估难度大,定价逻辑脱离实际风险。大型企业的计算机系统是复杂的软硬件网络,识别潜在漏洞需要专业技术与大量测试,但保险公司从未开展深入的技术评估,仅依赖冗长的问卷调查。而问卷无法捕捉安全防护的细节差异:比如数据加密是否完善、多因素身份验证是否覆盖所有账户等。无法精准评估,便只能基于企业收入、行业属性等粗略指标定价,导致保费与安全投入脱节,无法形成有效的激励机制。AI系统的评估难度远超传统计算机系统,且目前行业对AI安全防护缺乏共识,保险公司更难将保费与安全措施挂钩,进一步弱化了企业的安全投入动力。
其三,灾难性风险高度集中,动摇行业稳定。保险公司的核心风控逻辑是分散客户群体,避免单一事件影响大量投保人,但网络安全事件具有跨地域、跨行业的扩散性——多数企业依赖有限的操作系统与云计算提供商,一个漏洞便可能引发大面积损失。AI行业的集中度更高,少数科技公司的基础模型被全行业依赖,一旦出现漏洞或故障,可能迅速影响保险公司的大部分投保人。因此,保险公司大概率会效仿网络保险的做法,将此类高风险排除在承保范围之外,或严格限制保险额度,进一步削弱了保险机制的风险覆盖能力。
当然,网络安全与AI风险存在些许差异:AI危害可能源于意外故障,而非单纯的人为攻击,理论上更易通过历史数据建模,但AI技术的快速迭代,让这种建模方法仅在少数成熟领域有效,无法覆盖多数新型AI安全风险;此外,网络风险多集中于独立保单,而AI风险分散在不同保险产品线,导致保险公司难以集中精力发展专业能力。但这些差异不足以改变核心结论:AI责任保险与相关市场,难以在提升AI安全性方面发挥实质性作用。
快手黑灰产攻击带来的警示是深刻的:技术风险的治理不能寄望于市场机制的自发调节。监管机构虽无法做到面面俱到,但必须主动作为——推动建立AI损害强制报告制度,尽早开展常态化的审计与测试,将安全管控前置。寄望于保险业事后兜底,或等待责任机制自发起效,最终可能让我们在AI时代的安全迷局中越陷越深。技术的发展速度远超治理的完善速度,唯有构建“监管引领+企业主责+多方协同”的治理框架,才能为我们的未来筑牢安全屏障。
本文来自微信公众号:Internet Law Review,编译:互联网法律评论,作者:施瓦茨&沃尔夫
