无尘阁日记

无尘阁日记

一个人、一套算法、一场战争 ——当AI学会了替人类决定谁该死
2026-03-22

你有没有想过,杀一个人需要多长时间?

不是电影里那种——掏枪、瞄准、扣扳机。

是一个现代化军事系统,从锁定目标批准击杀,中间需要多少时间?

答案是:二十秒。

这不是科幻片的台词。这是2024年以色列情报军官的亲口证词。六名参与加沙战争的情报人员,对以色列独立媒体+972杂志和Local Call说出了这个数字。

二十秒。

一个人的名字从AI系统里弹出来,军官看一眼——确认是男性——点一下批准

然后,一颗炸弹落在这个人睡觉的房子上。连同他的妻子、孩子、父母,一起。

这篇文章要讲的,就是这二十秒背后的三样东西:一个人、一套算法、一场战争。它们是怎么咬合在一起的,最后又是怎么把七万多条人命碾进去的。

一、一个人:不能停下来的总理

先说人。

本杰明·内塔尼亚胡,以色列历史上在位最久的总理。2023107日,哈马斯发动突袭,杀了约1200名以色列人,劫持251名人质。举国震怒。

但很少有人注意到一件事——在这场灾难发生的时候,内塔尼亚胡正面临三项刑事指控:受贿、欺诈、背信。如果罪名成立,最高可判十年。

这不是反对派编排他。这是以色列检察系统从2016年就开始的调查,2020年正式开庭的案子。他是以色列建国以来,第一个在任期间被起诉的总理。

107日之前,他的民调已经很难看了。他为了保住权力,拉拢了以色列史上最极右翼的政治力量组阁——包括因煽动仇恨被定过罪的国家安全部长本·格维尔。他推的司法改革计划引发了几十万人上街抗议。

然后,107日来了。

战争,对任何一个政客来说,都是最好的挡箭牌。

你不能在战时换掉总司令。你不能在炮弹横飞的时候开庭审案子。法院确实因为安全考虑减少了庭审天数。一个本来就在拖的案子,又被战争拖得更远了。

202412月,内塔尼亚胡终于出庭作证。他说了什么?我等了八年就为这一刻。”——八年了,这案子还在审。

2025年底,他干脆向以色列总统申请特赦。不认罪,不道歉,不承诺退出政治。理由是什么?为了国家利益,审判应该立刻结束。

反对党领袖拉皮德的回应很直接:只有有罪的人才会请求特赦。

20258月,他的政府试图解雇正在主持他案件起诉工作的总检察长巴哈拉夫-米亚拉。最高法院紧急叫停了这个决定。通信部长卡尔希随即在社交媒体上宣布:我们不服从法院!

而在这整个过程中,加沙的战争一天也没停。

20251月停火了不到两个月,3月就恢复了军事行动。

美国马里兰大学学者赛尔·阿布·拉斯在他的分析中说得明白:内塔尼亚胡从战争一开始就有两个交织的目标——第一,用战争维持权力;第二,在加沙制造既成事实。

战争越长,他的位子越稳。战争一停,他就得面对法庭、面对选举、面对问责。

这是一个不能停下来的人。

但是,一个人打不了一场现代战争。他需要工具。

二、一套算法:生产线上的死亡

这里要讲三个名字。你可能没听过,但它们共同构成了人类历史上第一次大规模AI辅助杀人系统。

Gospel(福音)——负责锁定建筑物。

Lavender(薰衣草)——负责锁定人。

Where’s Daddy?(爸爸在哪?)——负责追踪人什么时候回家。

是的,最后那个系统的名字就叫爸爸在哪

先说Gospel。这个系统由以色列军事情报8200部队开发,功能很明确:把卫星图像、通信截获、监控数据、电子信号等等信息灌进去,让AI自动筛选出哪些建筑物可能是哈马斯的指挥所、武器库、发射阵地,或者——某个嫌疑人的住宅。

在过去,20个情报分析师要花300天,才能整理出50100个轰炸目标。

有了Gospel1012天,200个目标。

这是什么概念?

加速了五十倍。

前以色列国防军总参谋长阿维夫·科哈维亲口说:这个系统每天能生成100个轰炸目标,并实时推荐优先打击顺序。

这就是为什么2023107日之后的第一个月里,以色列就宣布在加沙打击了超过22000个目标——每天最多250个。2014年加沙战争,以色列空军打到后来目标都用完了,只能反复炸同一个地方。现在不会了。AI保证目标永远不会用完

再说Lavender

如果说Gospel负责锁定地方Lavender负责的就是

它是一个概率模型。把加沙地带每一个居民的数据——手机通讯、社交媒体、出行轨迹、人际关系网——全部灌进去,然后给每个人打一个1100的分数:这个人有多大概率属于哈马斯或杰哈德的军事力量。

战争初期,Lavender标记了37000个巴勒斯坦人为潜在目标

三万七千人。

知道这个数字意味着什么吗?加沙战前人口大约230万。37000人相当于每62个人里就有一个被AI判定为可以杀

而且,大多数是最低级别的所谓初级战斗人员”——在过去根本不会出现在任何暗杀名单上的人。

但最让人后背发凉的部分还不是这个。

是审核流程。

六名情报军官说了同样的话:审核Lavender的输出,平均每人花二十秒。主要就确认一件事——目标是不是男性。

没有人审查AI为什么选了这个人。没有人检查原始数据。没有人做第二层核实。

即使你不确定机器是对的,你也知道从统计上讲,没问题。一名使用Lavender的军官说。

Lavender自己的抽样测试显示,错误率是10%。也就是说,每标记10个人,就有1个根本不是武装人员。37000人里,至少3700人被错杀的风险是已知的、被接受的。

一名参与训练Lavender的数据科学家说了一件更要命的事:训练数据把哈马斯运营的内政部文职人员也算作了哈马斯成员。这意味着系统从一开始就把文职军事搅在了一起。这不是bug,是feature——因为这样做让AI能标记更多目标。

最后说Where’s Daddy?

它的功能精准到令人作呕:追踪Lavender名单上的人,等他们晚上回到家,和家人在一起的时候,发出通知——“目标到家了。

然后轰炸开始。

为什么选晚上?为什么选家里?

因为容易找。一个情报军官的原话是:以色列国防军毫不犹豫地在住宅里轰炸他们,作为首选方案。炸一个家庭的房子,比在外面找人容易多了。

而且,炸这些所谓初级目标的时候,用的不是精确制导炸弹。

用的是哑弹”——无制导的自由落体炸弹。

为什么?因为不值得在一个不重要的人身上浪费一枚昂贵的精确炸弹。

这是以色列情报军官的原话。

一枚哑弹扔进一栋公寓楼,整栋楼塌了。里面的人全死了——目标本人(如果他真的在家的话)、他的妻子、他的孩子、他的邻居。

有军官证实:因为Where’s Daddy的定位信息和实际轰炸之间有时间差,很多时候炸弹落下去的时候,目标人已经不在家了。

结果就是——杀了一整家人,目标根本没在屋里。

这种事在我身上发生过很多次,一名军官说。我们袭击了一栋房子,结果那个人根本不在家。结果就是你无缘无故杀了一整个家庭。

把这三个系统连起来看:

Gospel告诉你炸哪个建筑。Lavender告诉你炸谁。Where’s Daddy告诉你什么时候炸。

什么时候炸的答案是:等他和家人在一起的时候。

这不是一个武器系统。这是一条工业化的死亡生产线。

三、一场战争:数字不会说谎

到底死了多少人?

截至20262月,加沙卫生部的数字是:超过73000名巴勒斯坦人死亡。

但独立学术研究给出了更高的数字。20262月发表在《柳叶刀·全球健康》上的一项入户调查估算,仅到202515日,加沙暴力死亡人数就已达到75200——比同期官方数字高出34.7%

马克斯·普朗克人口学研究所的模型估算,截至2024年底,约78000人在冲突中直接死亡。更新后的分析显示,实际暴力死亡人数可能已超过10万。

这些数字有一个共同特征:死者中,妇女、儿童和老人占56%以上。

20255月,一份以色列军方内部机密数据库被媒体披露。在当时53000名巴勒斯坦死者中,以军自己的记录显示只有8900人是武装人员。

做个除法:17%是战斗人员,83%是平民。

83%

这个平民死亡比例有多离谱?人权观察和联合国的数据显示,它高于波黑战争整体、高于也门内战——在现代战争史上,只有斯雷布雷尼察屠杀、马里乌波尔围城和卢旺达大屠杀的平民占比与之可比。

而这一切,发生在一个号称AI提升精确打击能力的军事行动中。

20244月,联合国人权高专办说得很直白:如果关于LavenderWhere’s Daddy的报道属实,那么很多以色列对加沙的打击将构成战争罪——发动不成比例的攻击

20259月,联合国巴勒斯坦被占领土调查委员会走得更远——他们认定,《灭绝种族公约》所定义的五种灭绝行为中的四种,在加沙已经发生。

20259月,微软终止了8200部队对其Azure云服务的访问权限——因为用电话数据定位轰炸目标,违反了微软的服务条款。

一家科技公司,在伦理问题上,比一个国家走得更远。

四、这条链是怎么连起来的

回到开头。

一个面临牢狱之灾的总理,需要一场没有尽头的战争。

一场没有尽头的战争,需要一个永远不会耗尽目标的系统。

一个永远不会耗尽目标的系统,需要把谁是敌人的标准降得足够低——低到AI可以在加沙每62个人里挑出一个来炸。

而为了让这套系统高效运转,审核被压缩到了二十秒。精确被替换成了哑弹。军事目标被扩展到了睡着的家庭。

每一步,单独看,都有合理的解释。

AI只是个辅助工具嘛。人类操作员还是有最终决定权嘛。错误率10%在统计上可以接受嘛。打击哈马斯的军事必要性非常高嘛。

但你把这些环节串起来,就会发现一件事:

这条链上的每个环节,都在做同一件事——降低杀人的心理门槛和行政门槛。

AI让你不用亲自看情报、不用亲自做判断。二十秒的审核让你不用真正思考。哑弹让你不用在乎精确。“Where’s Daddy?”让你不用在白天面对一个活生生的人——等他睡着就好。

技术不是中立的。

当你把技术设计成这样——让杀人变得像点外卖一样容易、一样快捷、一样不需要思考——那技术本身就成了武器的一部分。

而在这条链的最顶端,坐着一个需要这场战争的人。

结语

这不是一个关于”AI是好是坏的讨论。

这是一个关于当权力、技术和动机完美咬合时会发生什么的现实案例。

一个不能停下来的人,一套不会停下来的算法,一场被设计成不能停下来的战争。

三个齿轮咬合在一起,碾过去的是加沙的平民。七万多条命,其中大多数是妇女和孩子。

这件事正在发生。不是历史,是新闻。不是假设,是数据。

它比任何科幻片都恐怖。因为科幻片里的AI至少还需要获得自我意识才能开始杀人。

现实中的AI,只需要一个二十秒的批准

合十。如夜话,至此。