AI 時代第一場戰爭:人工智能如何改變伊朗戰爭的作戰方式,開啟人工智能作戰新時代。
軍事分析人士表示,美以對伊朗的戰爭是現代沖突中首批將人工智能系統置于核心地位(而非輔助地位)的戰爭之一。
![]()
伊朗德黑蘭:2 月 28 日,美國和以色列的首輪空襲打擊伊朗時,其強度和精準度標志著武裝沖突史上真正嶄新的事物出現了。
這并非一場常規戰爭;從一開始,人工智能(AI)就融入了作戰的各個層面,包括規劃、情報分析、目標選擇和網絡防御。
僅在最初的 12 小時內,估計就有 900 次打擊擊中了伊朗境內的目標,其中以色列的導彈導致最高領袖阿里?哈梅內伊身亡。
軍事分析師和研究人員表示,這是首批人工智能系統發揮核心作用而非輔助作用的現代沖突之一。
“我們如今所看到的僅僅是個開始,” 伊朗德黑蘭阿米爾卡比爾理工大學的研究員阿里?馬赫迪(Ali Mahdi)博士對《新阿拉伯人》(The New Arab)說道。
“未來的戰爭將更嚴重地依賴人工智能。決策速度會更快,也會更復雜,尤其是在人類在某些戰術決策中的作用被削弱的情況下。”
在以往的沖突中,人類分析師需要數周乃至數月的時間,才能從衛星圖像、監控數據和實地記錄中提取出有價值的情報。
![]()
在對伊朗的戰爭中,先進的算法能在幾分鐘內處理數百萬個數據點,將衛星信號、無人機畫面和地面監測數據整合到機器學習模型中,生成了一幅實時的作戰圖景,這是以往任何戰爭都未曾有過的。
這種速度改變了決策的制定方式。指揮官幾乎能即時評估伊朗軍隊的動向、防御陣地和武器轉移情況。從識別目標到采取行動之間的時間差已從數小時或數天縮短到了幾分鐘。
伊朗阿米爾卡比爾計算機科學學院的教師沙里亞特馬達爾?拉赫馬蒂(Shariyatmadar Rahmati)博士仔細描述了這一架構。
“這些算法會分析海量數據并提供精準建議,但最終決定權仍在人類分析師手中。人工智能與人類判斷之間的這種平衡確保了決策不會以完全自動化的方式做出。”
拉赫馬蒂博士認為,這種平衡在壓力下并非總能保持。“人工智能帶來的速度有時會促使分析師在關鍵時刻做出決策。如果沒有嚴格的人類監督,這可能會導致嚴重的錯誤。”
![]()
自美以對伊朗開戰以來,人工智能已融入作戰的各個層面,包括規劃、情報分析、目標選擇和網絡防御。[GD圖片社]
據報道,包括 Anthropic 公司的 Claude 在內的模型,已成為軍事指揮中使用的監視和分析系統的一部分,能就目標優先級提供近乎即時的建議,并處理來自衛星和監控系統的數百萬個數據點。
另有報道稱,美國政府已使用人工智能工具來確定目標優先級,并在數小時內執行打擊行動,若沒有自動化的實時分析,這樣的時間安排是不可能實現的。
人工智能(AI)戰爭
這場沖突中一個頗具爭議的方面涉及人工智能公司與部署其技術的軍事機構之間的關系。Anthropic 公司對其系統被直接用于作戰目標瞄準表達了保留意見,而美國國防部則力推擴大其作戰應用范圍。
獨立人工智能專家奈姆?扎馬尼(Naim Zamani)指出了他所認為的根本問題。
“該系統可能會推薦人類無法理解的行動,而這些行動可能在未經充分審查的情況下被執行,這會增加出錯的概率,并破壞對道德和國際法律義務的遵守。人工智能不僅僅是一種工具。它已經成為戰場本身的一部分。”
法律風險重大。國際人道主義法要求戰斗人員在任何時候都要區分民用目標和軍事目標。當這種區分由算法做出時,問責問題就變得十分尖銳。
![]()
![]()
![]()
在美以戰爭爆發后的最初幾個小時里,伊朗南部一所女子學校遭到致命襲擊,造成至少 175 人死亡,這一事件凸顯了這些決策所帶來的嚴重后果。據報道,這所學校被誤認成了軍事地點,但目前尚不清楚這是由過時的情報還是人工智能決策導致的。
“目標分類中的任何錯誤都可能導致人類災難,” 拉赫馬蒂博士說。“在軍事行動中完全依賴人工智能之前,這必須成為任何戰略評估的一部分。”
馬赫迪博士的說法更為直接:“算法可能會對目標進行錯誤分類,導致民用設施被當作軍事目標打擊。人工智能并非中立工具,它會對戰爭結果和指揮官的決策產生直接影響。”
現代戰爭就是信息戰場
這場戰爭并未局限于實體領土。伊朗已部署了人工智能生成的虛假信息、經過操縱的圖像和視頻,旨在給地面事件制造錯誤印象。
美國和以色列也部署了人工智能驅動的防御系統,用于實時檢測和反擊操縱企圖,分析師稱這形成了一個多維度戰場,在這個戰場中,對信息的控制與對領空的控制具有同等重要的戰略意義。
“人工智能不僅用于識別地面目標,” 扎馬尼說,“還用于信息戰和數字欺騙。比對手更快地控制和分析數據,能夠改變媒體敘事并影響公眾士氣,這使得與伊朗的沖突成為一場融合了軍事戰場和數字信息空間的較量。”
在這場已演變為算法之戰的沖突中,數據分析能力的速度超過了實體戰斗的速度,而預測層面又增添了新的維度。人工智能系統不僅分析當前數據,還會根據歷史模式和過往行為模擬伊朗未來的反應,讓規劃者能夠預判反擊行動。
這些模型并非絕對可靠。其潛在假設中的任何錯誤都可能導致意外的升級。
對伊朗的戰爭在缺乏任何國際法律框架進行規范的情況下開創了一個先例。這場戰爭引發的關于算法錯誤責任、致命決策中自動化的允許程度,以及其系統被用于戰斗的人工智能公司的義務等問題,在國際法中仍未得到解答。
![]()
分析人士警告稱,人工智能并非中立工具,其算法會對目標進行錯誤分類,導致民用設施被當作軍事目標遭到打擊。[GD圖片社]
“我們需要清晰的法律框架來規范人工智能在戰爭中的使用,” 馬赫迪博士表示,“以確保遵守國際人道主義法并保護平民。”
扎馬尼對這類框架能否及時出臺不太樂觀。“戰爭規則是為另一種類型的戰場制定的,” 他告訴《新聞分析》。
當算法選錯目標時,責任應由誰承擔:是構建該模型的公司、部署它的軍方,還是接受其建議的指揮官?
目前尚無定論,但對伊朗的戰爭讓這些問題變得比以往任何時候都更為緊迫。
【作者馬哈茂德?阿斯蘭(Mahmoud Aslan)是一名自由記者,也是伊朗問題專家,常駐德黑蘭和伊斯坦布爾。】
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.