无尘阁日记

无尘阁日记

AI杀人机器 ——当算法替你决定谁该死,你只需要二十秒
2026-03-22

讲一个技术问题。

在你用的每一个AI产品里——ChatGPT、Claude、Gemini——都有一个核心概念叫"训练数据"。你喂给它什么数据,它就学会什么逻辑。

你喂它互联网上的文字,它学会聊天。你喂它代码,它学会编程。你喂它法律文书,它学会像律师一样说话。

那如果你喂给它的是——加沙地带230万人的手机通话记录、社交媒体、出行轨迹、人际关系网?

它会学会什么?

它会学会判断一个人是不是"该死的"。

这不是假设。这是以色列国防军在加沙战争中真实部署的系统。

它们有名字。有的名字甚至很好听——

"福音"(Gospel)。"薰衣草"(Lavender)。还有一个,叫"爸爸在哪?"(Where's Daddy?)

今天这篇文章,就是把这三个系统从技术原理到运作逻辑,到它们在这场战争里具体干了什么,完整拆开给你看。

看完之后你会明白一件事:在加沙,AI不是"辅助工具"。AI是杀人链条上最关键的一环。

一、Gospel:让目标"永远用不完"

先说第一个系统——Gospel,"福音"。

它是以色列军事情报最精锐的8200部队开发的。功能一句话说清楚:告诉空军该炸哪个建筑。

怎么做到的?

把所有能拿到的信息——卫星图像、无人机画面、通信截获、手机信号、监控数据——全部灌进这个系统,让AI自动分析,从中筛选出哪些建筑物"可能"是哈马斯的指挥所、武器库、火箭发射阵地,或者某个嫌疑人的住所。

然后系统自动生成一份轰炸建议清单,推送给人类分析师。分析师决定要不要把这个目标送到前线。

听起来还好对吧?有人类把关嘛。

但问题在于速度。

在Gospel出现之前,20个情报分析师需要大约300天,才能整理出50到100个轰炸目标。

有了Gospel,10到12天,200个目标。

你算一下。同样的工作,以前需要300天,现在12天。加速了至少50倍。

前以色列国防军总参谋长阿维夫·科哈维公开说过:这个系统每天能产出100个轰炸目标,并且实时推荐优先打击顺序。

这意味着什么?

2014年加沙战争,以色列空军打到后面,目标用完了。没东西可炸了。只能反复炸同一个地方。

2023年不会了。

战争头35天,以色列宣布打击了超过15000个目标。每天最多250个。到年底,总数超过22000个。

一名以色列调查记者在法国24小时电视台说了一句话,精准概括了Gospel的意义:它让以色列空军实现了"目标永远不会用完"。

以前打仗打到弹药和目标的极限就停了。现在,目标由AI无限生成,唯一的瓶颈变成了炸弹够不够多。

但Gospel只负责"地方"。它告诉你炸哪栋楼。

至于楼里面的人,是不是该死的,这事它管不了。

管这事的,是第二个系统。

二、Lavender:给每个人打一个"该死分数"

Lavender,薰衣草。名字很美。功能很恐怖。

它是一个概率模型。原理用大白话说就是——把加沙地带每一个居民的数据全部灌进去,然后给每个人打一个1到100的分数。

这个分数代表什么?

代表这个人有多大概率属于哈马斯或巴勒斯坦伊斯兰圣战组织(杰哈德)的军事力量。

它参考哪些数据?你的手机通讯记录、社交媒体行为、出行轨迹、你和谁联系过、你加入了什么群组、你的活动时间规律、甚至你换手机的频率。

2024年4月,以色列独立媒体+972杂志和Local Call发表了一篇炸裂的调查报道。六名参与加沙战争的以色列情报军官出来作证——匿名的,但全是第一手经历。

他们说了什么?

第一,Lavender在战争初期标记了37000名巴勒斯坦人为"潜在打击目标"。

三万七千人。加沙战前人口大约230万。相当于每62个人里,AI就挑出一个来说:"这个人可以杀。"

第二,这些目标绝大多数是最低级别的所谓"初级战斗人员"。

在过去,只有哈马斯的高级指挥官才会上暗杀名单。全加沙可能就几十个、上百个。现在,AI把标准降到了最底层——任何被算法认为和武装组织有"关联"的人,都可以成为目标。

第三,审核流程几乎不存在。

每个目标的人类审核时间是多少?二十秒。

二十秒里,军官只做一件事——确认Lavender标记的这个人是男性。

不审查AI为什么选了这个人。不检查原始数据。不做第二层核实。

一名军官说:"即使你不确定机器是对的,你也知道从统计上讲,没问题。错误被当作统计问题来处理。"

第四,已知错误率是10%。

Lavender的开发团队自己做过抽样测试。每标记10个人,就有1个不是武装人员。37000人里,至少3700人被算法冤枉。

这个数字不是泄露的。是以色列军方自己知道、自己接受的。

第五,训练数据本身就有问题。

一名参与训练Lavender的数据科学家透露了一件更要命的事:在训练阶段,"哈马斯成员"这个标签用得非常宽泛。哈马斯运营的内政部文职人员——比如民防工作者——也被算进了训练数据。

这意味着什么?意味着AI从一开始就没学会区分"拿枪的人"和"在政府大楼里上班的文员"。当你把文员的通讯特征也标记为"哈马斯成员"时,AI就会把更多和文员通讯特征相似的普通人也标记为目标。

这不是bug。据那名数据科学家的说法,这是有意的选择——因为这样做能让AI标记出更多的目标。更多的目标意味着更多的打击。更多的打击意味着这场战争可以持续不断地进行下去。

三、Where's Daddy?:等他回家,炸他全家

第三个系统。名字是"爸爸在哪?"

你没看错。就是这个名字。

它的功能极其简单:追踪Lavender名单上的人,等他晚上回到家——通常是和妻子、孩子在一起的时候——发出通知。

"目标到家了。可以炸了。"

为什么选晚上?为什么选家里?

一名情报军官的原话是:"以色列国防军毫不犹豫地在住宅里轰炸他们,作为首选方案。炸一个家庭的房子,比在外面找他容易多了。系统就是为了在这种情况下找到他们而设计的。"

不是在战场上、不是在军事行动中、不是在执行任务时——而是在他们睡觉的时候。

而且,打击这些所谓"初级目标"时,用的不是精确制导炸弹。用的是无制导的自由落体炸弹——军事术语叫"哑弹"。

为什么?

因为"不值得在一个不重要的人身上浪费一枚昂贵的精确炸弹。"

这是以色列情报军官的原话。

一枚哑弹扔进一栋公寓楼。整栋楼塌了。目标本人死了(如果他真的在家的话)。他妻子死了。他的孩子死了。他的邻居死了。楼上的人死了。

但这里还有一个更荒谬的细节。

多名军官证实:因为Where's Daddy?发出"目标到家"的通知和实际轰炸之间有时间差——可能是几分钟,也可能更长——所以经常出现一种情况:炸弹落下去的时候,目标已经出门了。

结果就是:一整个家庭被灭门,而要炸的那个人根本不在房子里。

"这种事在我身上发生过很多次,"一名军官说。"我们袭击了一栋房子,结果那个人根本不在家。结果就是你无缘无故杀了一整个家庭。"

这不是意外。这是系统。

四、把三个系统连起来看

现在把它们组装到一起。

Gospel生成建筑物目标清单——"炸哪里"。

Lavender生成人员打击清单——"炸谁"。

**Where's Daddy?**追踪目标的实时位置——"什么时候炸"。

而"什么时候炸"的答案,被设计成——等他和家人在一起的时候。

这三个系统组成了一条完整的工业化杀人流水线:

AI选人 → AI选地点 → AI选时间 → 人类用二十秒"批准" → 哑弹落下 → 全家灭门 → 下一个。

一名使用过这些系统的军官说了一句话,应该被刻在某个地方:

"因为有了这个系统,目标永远不会结束。你还有另外36000个在等着。"

战争初期头六周,仅这段时间,就有超过15000名巴勒斯坦人死亡——几乎占到了整场战争截至当时死亡人数的近一半。联合国人权高专办说得很明确:正是在AI系统被大规模使用的这个阶段,平民死亡密度最高。

而战争初期,以色列军方对每个"初级目标"允许的附带平民伤亡上限是多少?

20人。

杀一个AI标记的、可能是也可能不是武装人员的最低级别目标,允许同时杀死20个平民。

如果是中级指挥官?允许更多。

如果是高级指挥官?一名军官提到了一个案例:2023年10月17日的一次空袭中,以色列为了打击一名高级哈马斯指挥官,已知会造成大约300名平民死亡。

打了。

五、"精确打击"这四个字是怎么变成谎言的

以色列军方对外的叙事一直是:"AI提升了精确打击能力,减少了平民伤亡。"

前任8200部队AI和数据科学负责人在一次公开演讲中说,这些工具可以"精确打击、大幅减少对非战斗人员的伤害"。

但你把事实摆出来看——

标记37000个目标,已知10%是错的。审核20秒。用哑弹。炸家庭住宅。等夜里全家在一起的时候。允许每个低级目标附带20个平民死亡。目标不在家也照炸。

这叫"精确打击"?

2025年5月泄露的以色列军方内部数据库给出了最终答案。在当时53000名巴勒斯坦死者中,以军自己的记录显示只有8900人是武装人员。

17%是战斗人员。83%是平民。

独立学术研究进一步验证了这个比例。2026年2月发表在《柳叶刀·全球健康》上的入户调查估算,死者中妇女、儿童和老年人占56.2%。

用AI标记目标、用哑弹执行、选择在家庭里动手——这套系统从设计逻辑上就不是为了"精确"。它是为了"量"。为了保证目标永远炸不完。为了让战争可以无限进行。

所谓"精确打击",是说给媒体和国际社会听的话术。在操作层面,这是一台高速运转的、以平民生命为燃料的战争机器。

六、下一步:比Lavender更恐怖的东西

如果你以为Lavender已经是终点了,还有一条更新的新闻。

2025年3月,+972杂志、Local Call和英国《卫报》联合调查披露:8200部队正在开发一个类似ChatGPT的大语言模型,专门用于监控巴勒斯坦人。

它的训练数据是什么?

数以百万计的巴勒斯坦人日常电话通话和短信内容。

一名前8200军官在去年特拉维夫的一次军事AI会议上说了一句话:"我们试图创建尽可能大的数据集,收集以色列有史以来拥有的所有阿拉伯语数据。"他强调,这个模型需要"疯狂数量"的数据。

这个模型被训练来理解巴勒斯坦口语阿拉伯语——不是书面语,是日常对话里的方言。

一个熟悉项目的情报人士说:"即使某人打电话告诉另一个人来学校门口接他——这只是一段普通对话,没有情报价值。但对这种模型来说,这是金子。因为它提供了更多更多的训练数据。"

这个工具一旦部署,它能做什么?

一名情报人士的原话是:"AI放大了权力。这不仅仅是关于阻止枪击事件。我可以追踪人权活动家,监控巴勒斯坦人在C区的建筑活动。我有更多的工具来了解约旦河西岸每一个人在做什么。"

每一个人。

人权观察的高级监控研究员扎克·坎贝尔说得很直白:"这是一台猜测机器。最终这些猜测会被用来定罪。"

前英国和美国情报高级官员告诉记者:以色列在AI整合到情报工作方面所冒的风险,超过了它最亲密的盟友。一位前西方情报负责人说,以色列军事情报大规模收集巴勒斯坦通讯内容的做法,让它能够以"在其他国家不可接受"的方式使用AI。

从Lavender到这个新的大语言模型,方向很清楚:

第一步,AI帮你决定炸谁。

第二步,AI帮你理解每一个人。

从杀人工具,到全面监控工具。

七、伦理黑洞

最后说说这件事的本质。

人类发明AI,最核心的承诺是什么?"让机器帮人类做决定,减少错误,提升效率。"

在加沙,这个承诺被完美地兑现了——AI确实帮人类做了决定(谁该死),确实提升了效率(每天100个目标),确实让人类"减少了参与"(20秒审核)。

但它没有减少错误。它放大了错误。而且它把错误的后果——从误判一个人的身份,变成了炸平一整栋楼、灭门一整个家庭。

这就是伦理黑洞:

当你用AI来降低杀人的心理成本和行政成本,杀人就变成了一件流水线上的事。

操作员不需要看这个人的脸。不需要知道他有几个孩子。不需要了解AI为什么选了他。只需要确认一件事——他是男的——然后点"批准"。

二十秒。下一个。

没有人需要为任何一个具体的死亡负责。AI选了人,人类批了准,飞行员扔了弹。每个环节都可以说"我只是在执行流程"。

这就是汉娜·阿伦特说的"平庸的恶"——只不过现在,平庸被算法加速到了每天100个目标的速度。

联合国秘书长古特雷斯说他"深感不安"。联合国特别报告员说如果报道属实,这构成战争罪。2025年9月,联合国调查委员会直接认定:灭绝种族公约定义的五种行为中,有四种在加沙已经发生。

而在所有这些认定的背后,站着三个安静运转的AI系统。

Gospel选地方。Lavender选人。Where's Daddy?选时机。

人类剩下的工作,只有二十秒。

这二十秒,是人类和机器之间最后一道道德屏障。

而在加沙,它被压缩成了一个橡皮图章。

合十。如夜话,至此。