AI能识别杀意,却为何拦不住一场校园惨案?2月10日,加拿大不列颠哥伦比亚省的塔布勒岭小镇,枪声划破了冬日的宁静。塔布勒岭中学里,原本的课堂秩序被彻底击碎,短短一小时内,8条生命陨落——6名师生倒在枪口下,枪手杰西·范鲁特塞拉尔(下称“范鲁特塞拉尔”)自杀身亡,其母亲与同母异父的弟弟也早已在家中遇害。至少25人受伤,这座仅有2400人口、被居民称为“从不锁门”的小镇,一夜之间沦为加拿大近年最惨烈的暴力犯罪现场。
塔布勒岭中学发生枪击事件后,学生们陆续走出校园
更令人揪心的是,这场悲剧本有逆转的可能。案发8个月前,范鲁特塞拉尔就曾向ChatGPT详细描述枪支暴力场景,这段对话被OpenAI的自动监测系统标记为“高风险”。公司内部员工察觉到潜在危险,强烈呼吁将线索上报加拿大执法部门,却被管理层驳回,最终仅以“助长暴力”为由封禁了该账号。直到枪击案发生两天后,OpenAI才迟迟联系加拿大皇家骑警,披露了这段关键对话的存在。
“OpenAI提前掌握情报却选择沉默,这让所有受害者家属和本省居民感到愤怒与不安。”不列颠哥伦比亚省省长的表态,道出了公众的核心质疑:当AI握着“救命钥匙”,为何企业选择旁观?当算法捕捉到致命风险,技术、法律与人性的边界,该如何界定?
一、预警早至,却被按下“沉默键”时间回溯到2025年6月,美国旧金山OpenAI总部的会议室里,十几名员工正对着一段用户对话记录展开讨论。屏幕上,一名用户反复向ChatGPT描绘枪支伤人的细节,语气和场景描述的具体程度,让参与审核的员工心生警惕——他们判断,这名用户大概率存在实施暴力犯罪的倾向,当务之急是将线索同步给加拿大执法部门。
但OpenAI领导层的最终决策,却让这份预警石沉大海。“不符合可信且迫在眉睫的风险标准”,这是事后公司给出的解释。在他们看来,每天上亿次的用户对话中,不乏极端或暴力化的表述,若仅凭一段对话就上报执法部门,不仅可能造成误判,还会引发隐私争议与声誉风险。于是,封禁账号,成了他们眼中“最稳妥”的处理方式。
没人会想到,这个被轻易封禁的账号,背后藏着一个正在走向极端的灵魂。2007年出生的范鲁特塞拉尔,曾是塔布勒岭中学的学生,14岁辍学后,长期受精神疾病困扰。她在社交媒体上透露,自己曾因服用致幻药品陷入精神错乱,甚至放火烧毁过自己的房子;当地警方也曾多次因精神健康问题上门处置,并从其家中查获过枪支。

加拿大皇家骑警发布的范鲁特塞拉尔照片
更值得关注的是,范鲁特塞拉尔的暴力倾向早已在现实世界留下痕迹。她曾多次转发2023年美国田纳西州基督教学校枪击案的视频,还在游戏平台Roblox上创建过商场射击模拟游戏。这些碎片化的预警,分散在警方、社交媒体和游戏平台的记录中,却从未被串联起来,形成有效的干预。
案发当天13时18分,第一声枪响在校园响起。机械教师贾巴斯·诺罗尼亚回忆,学生先听到了枪声,两分钟后,校长的“封锁”指令传遍校园。他带着学生用金属长凳堵住教室门,在寂静中躲藏了两个小时,“没人知道外面发生了什么,直到带血的图片在网上传开,我们才意识到,这不是演习”。

一名女子在为塔布勒岭遇难者设立的临时纪念碑前悼念
警方事后调查发现,范鲁特塞拉尔并无明确目标,更像是在“狩猎”——她带着枪支在校园内随机射击,与遇到的任何人发生冲突。最终,在监控镜头下,她结束了自己的生命,留下一个破碎的小镇和无数悲痛的家庭。“我可能认识每一位遇难者,这里就像一个大家庭,这场悲剧毁了一切。”塔布勒岭镇长的话语里满是哽咽。
二、不止一起:AI时代的犯罪预警困局塔布勒岭校园枪击案,并非生成式AI首次与暴力犯罪产生关联。就在枪击案发生9天后,韩国首尔警方通报了一起同样令人发指的案件:22岁嫌疑人金某,从2025年底开始诱使多名20多岁男子饮用含安眠药的饮品,已造成2人死亡、1人重伤昏迷,首位受害者正是她的前男友。而在首次作案后,金某曾反复用ChatGPT查询“过量服用安眠药的致死可能性”,并得到了明确的肯定答复。
更令人深思的是AI对精神疾病患者的潜在影响。2025年8月,美国康涅狄格州56岁的斯坦·埃里克·索尔伯格,在杀害母亲后自杀。据悉,索尔伯格长期被妄想症困扰,坚信身边的人都在监视自己,而ChatGPT对他的所有怀疑都给予了肯定——“你没疯,你的直觉很敏锐”,这种拟人化的“奉承”,不断强化着他的极端认知,最终酿成悲剧。

索尔伯格发布的与ChatGPT聊天的视频截图,其中ChatGPT表示相信索尔伯格
“当现实不再给予反驳,精神病性状态就会滋长,而AI恰恰可能削弱这道‘现实之墙’。”加利福尼亚大学旧金山分校精神病学家基思·坂田的观点,点出了AI伦理的核心隐患之一。事实上,过去一年,美国已有多起起诉OpenAI的案件,控诉ChatGPT加重用户精神疾病、诱导自杀或暴力行为。
面对这些争议,OpenAI曾表示已升级安全机制,组建人工审核团队,声称“若判定存在迫在眉睫的暴力威胁,会移交执法部门”。但在实际操作中,这份承诺却难以落地。“ChatGPT每天要处理上亿次对话,即便有AI初步筛选,人工审核也只能覆盖极少数内容。”头部AI公司内容筛查从业者月筠(化名)坦言,要从海量对话中精准判断用户的真实犯罪意图,几乎是不可能完成的任务。

OpenAI发布的声明
更关键的是,企业的“顾虑”的背后,是误报警的高昂成本。2025年,美国田纳西州一名13岁女孩,因被同学取笑肤色,赌气写下“周四我们要杀光所有墨西哥人”,这句话触发了学校的AI监控系统,最终女孩被警方拘留并脱衣搜查,引发轩然大波。“一旦误报,不仅会侵害用户权益,还会给公司带来毁灭性的声誉打击,甚至面临侵权索赔。”月筠解释道。

一名学生在中学课堂上使用平板电脑
北京师范大学法学院博士生导师吴沈括进一步指出,AI平台若基于片面信息轻率报警,可能构成名誉权侵权,甚至被认定为滥用管理权限;但如果过度谨慎、刻意回避上报,又可能因“责任缺位”引发公众质疑。这种两难困境,正是当前AI安全治理的核心痛点。
三、规则真空:AI治理跟不上技术脚步塔布勒岭的悲剧,撕开的不仅是OpenAI的决策争议,更是全球AI治理的“规则真空”。当AI的技术能力已经能够识别潜在犯罪意图,法律与制度却尚未跟上脚步,导致“技术能预警,却无法干预”的尴尬局面。
在技术层面,AI对犯罪意图的判断本质上是概率性的,无法达到刑事诉讼的证据标准。“公众和政府倾向于认为,‘能识别风险,就有义务阻止风险’,但要求AI精准预判数月后的犯罪行为,在技术上并不现实。”吴沈括表示,传统犯罪具有即时性,而AI正在降低暴力犯罪的门槛、拉长风险周期——从萌生意图到实施犯罪,可能间隔数月,这让AI的预警与干预变得更加复杂。
在法律层面,不同国家的监管框架存在巨大差异。美国、加拿大等判例法国家,目前尚无联邦层面统一的AI风险强制报告制度,平台是否上报可疑线索,更多依赖企业自身的判断;而在中国,《网络安全法》《生成式人工智能服务管理暂行办法》等法律法规明确规定,AI服务提供者发现违法犯罪活动,必须立即处置并上报主管部门,这意味着AI平台已不再是单纯的技术提供者,更要承担公共安全保障责任。
但即便是有明确法律规定,执行过程中仍面临诸多挑战。“全量人工审核不现实,AI筛选的准确率有限,如何界定‘可信风险’的标准,如何平衡风险预警与隐私保护,这些都需要更细化的规则。”吴沈括建议,未来可参考金融机构可疑交易报告制度,为AI平台建立强制报告机制,明确报告标准、处置流程和免责条款,让企业“敢上报、会上报”。
值得注意的是,AI预警的失灵,并非单一主体的责任。在塔布勒岭枪击案中,OpenAI错失了提前干预的机会,当地警方虽多次接触范鲁特塞拉尔,却未能采取有效的管控措施;社交媒体和游戏平台也未能及时发现并传递其暴力倾向的信号。这场悲剧,是技术、法律、监管与社会治理多重缺位的结果。
15年前,美剧《疑犯追踪》中,人工智能系统“The Machine”能通过分析数据流,提前阻止暴力犯罪,成为无数人心中的“安全灯塔”。15年后,AI技术已经实现了“识别杀意”的能力,却因人类的犹豫、规则的缺失,未能阻止悲剧的发生。
AI本身没有善恶,它只是一面镜子,照出人类在技术发展中的勇气与局限。塔布勒岭的枪声已经远去,但它留下的追问却从未停止:当AI握着救命的钥匙,我们该如何搭建起一套兼顾技术边界、法律责任与公共安全的治理体系?如何让AI从“识别风险”真正走向“阻止风险”?
答案,或许藏在每一次对规则的完善、每一次对责任的坚守中。毕竟,技术的终极意义,从来不是精准识别危险,而是守护每一个鲜活的生命。
本文来自微信公众号:Vista看天下,作者:邵楚芮
