2026年2月28日,深夜。伊朗米納卜,一所學校的廢墟下,挖出了165具尸體,其中至少50名是兒童。盡管美軍披露的真相冰冷而殘酷:這次事件來自美軍戰斧導彈的襲擊。但更令人不寒而栗的是隱藏的秘密——導致這場屠殺的,不僅僅是炸彈,還有一行過時的代碼。
當我們還在討論ChatGPT會不會搶走程序員的飯碗時,真正的“巨獸”早已悄然入局。在現代戰爭的“殺傷鏈”上,人工智能不再是旁觀者,它成了決策的一部分。于是,我們不得不面對一個極其沉重的話題:當AI進入戰爭決策,究竟誰該負責?
![]()
“殺傷鏈”壓縮:用算法換效率
軍事圈最近有個熱詞,叫“殺傷鏈壓縮”。聽起來很科幻,其實邏輯很簡單:以前發現目標到實施轟炸,需要情報分析師看衛星圖、指揮官開會、層層審批,可能要幾天;現在AI介入,幾秒鐘就能完成“識別-匹配-建議打擊”的全過程。效率提升了,容錯率呢?歸零。
在2026年初的美以聯合行動中,AI系統被用來處理海量情報。但問題來了:AI是基于歷史數據訓練的。如果數據是舊的,或者帶有偏見,AI就會一本正經地胡說八道。
米納卜學校的悲劇,據稱就是因為系統使用了“過時的目標情報”。在被壓縮到極致的決策鏈條里,人類審核員往往只有幾秒鐘甚至沒有時間去驗證一個“機器推薦”的真實性。
這不僅是技術的悲劇,更是人性的異化。早在加沙沖突中,以色列國防軍就部署了名為“福音”(The Gospel)的AI平臺。它像一座死亡工廠,批量生成打擊目標。還有一個叫“Lavender”的系統,負責自動篩選“恐怖分子嫌疑人”。
在那里,戰爭變成了流水線作業:
AI負責名單,“這棟樓里有哈馬斯,炸。”
AI負責時機“目標現在在臥室,命中率95%,炸。”
人類負責按回車鍵:“同意。”
當殺人變成了“數據處理”,當平民傷亡變成了“可接受的算法誤差”,戰爭最底線的倫理——對生命的敬畏,正在被代碼悄悄抹去。
![]()
硅谷硬剛五角大樓:科技巨頭的“覺醒”與生存
就在前線的算法瘋狂吞吐數據時,后方的博弈更精彩。
2025年秋天,美國國防部給AI獨角獸Anthropic下了死命令:“把你們的大模型Claude給我用,用于‘所有合法用途’。”啥叫“所有合法用途”?懂的都懂,包括致命自主武器系統,包括大規模監控。
Anthropic的CEO達里奧·阿莫代是個硬骨頭,他回了兩個“不可談判”:不能在無人監督下用于殺人;不能用來監控美國公民。但他這下捅了馬蜂窩。
2026年2月,特朗普親自下場開撕:“美國絕不會允許一個激進左翼、‘覺醒’(Woke)的公司來決定我們偉大的軍隊如何作戰!”他甚至威脅動用《國防生產法》,要么強迫Anthropic接單,要么把它踢出供應鏈。
這場撕逼暴露了一個殘酷的現實:在國家機器面前,所謂的“科技向善”和“企業倫理”,脆弱得像一張紙。
Anthropic一怒之下把政府告上法庭。但更黑色幽默的是,就在雙方吵架的同時,五角大樓被曝已經在對伊朗的空襲中偷偷用了Anthropic的工具。這像不像你的前任?嘴上說著“我們要分手”,身體卻很誠實地繼續花你的錢。
科技公司掌握著算力、模型和數據,軍方掌握著槍桿子和預算。當這兩者結合,“國家安全”四個字就成了通行一切的免死金牌。 至于模型是不是有偏見?會不會誤殺?那是“技術迭代”的必要代價。
![]()
從冷戰到現在:AI如何成為戰爭的“基礎設施”?
別以為這是2026年才有的新鮮事。如果把依賴計算機、自動化的決策路徑都算做“類AI”,那么這場人與機器的“甩鍋”紛爭,早就是蓄謀70年的“溫水煮青蛙”游戲。
1950年代: 美國的SAGE防空系統,人類第一次把雷達交給計算機,雖然還是人工確認,但種子埋下了。
1991年海灣戰爭: DART系統幫美軍算后勤,省了幾十億,證明了AI能省錢也能殺人。
2017年: “Maven項目”,美軍用AI分析無人機視頻,機器開始替人“看”視頻。
2020年: 利比亞戰場,Kargu-2無人機在沒有人類指令下攻擊目標,自主殺人武器正式登場。
2024-2026: 生成式AI入場,從“看圖說話”進化到“決策建議”。
現在的趨勢是什么?AI直接決策,實現全流程“去人化”。
在烏克蘭戰場,AI控制的無人機群已經能在電子干擾下自己找目標、自己撞過去。人類操作員?已經成為可有可無的“備份”,充其量算是個“橡皮圖章”。
AI正在變成像電力、公路一樣的戰爭基礎設施。 你會因為路燈漏電電死人而審判發電廠嗎?同理,未來當AI系統造成戰爭罪行,軍方大概率會兩手一攤:“是算法的黑箱,我們也不知道它為什么這么選。”
![]()
終極拷問:當暴力被“理性化”,誰來承擔罪惡?
梳理這么多案例和邏輯,這里還想引用社會學家鮑曼在《現代性與大屠殺》中的觀點:“大屠殺不僅是瘋狂的產物,更是高度理性、官僚化和技術化的結果。”
這正是AI軍事化最恐怖的地方。它把充滿血腥、倫理掙扎的“殺人”,包裝成了冷冰冰的“參數優化”。
不是“我們要炸死這群人”,而是“目標優先級排序為A”。
不是“誤殺了平民”,而是“附帶損傷在可接受閾值內”。
不是“戰爭罪行”,而是“系統故障”或“數據偏差”。
在這種話語體系下,責任被無限稀釋了。
是數據標注員的錯嗎?他只是標了幾張圖。
是算法工程師的錯嗎?他只是寫了幾行代碼。
是指揮官的錯嗎?他只是信任了系統的“99%置信度”。
是AI的錯嗎?它沒有意識,也不用坐牢。
每個人都只負責了鏈條上的一小環,每個人都覺得自己無罪。于是,罪惡就在這“集體的平庸”中消失了。
![]()
別讓“算法”成為逃避良知的借口
目前的國際法,還停留在管制“物理武器”的階段。對于看不見、摸不著的代碼,對于每秒運算億萬次的黑箱,幾乎束手無策。
2026年的慕尼黑安全會議上,各國都在談“AI軍備競賽”,卻沒人能拿出一套有效的“AI軍控條約”。技術跑得太快,把人類的道德甩在了身后。
如果有一天,一枚由AI自主決定發射的導彈摧毀了一所醫院,我們希望聽到的不是“系統出現不可避免的錯誤”,而是某個具體的人類站出來說:“是我下令的,我負責。”
機器不應該擁有生殺大權,擁有生殺大權的人類,更不應該躲在機器后面。
![]()
互動話題:
如果未來戰爭完全由AI決策,且能減少90%的己方士兵傷亡,但會增加10%的平民誤殺率,你支持使用這種技術嗎?評論區聊聊你的看法。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.