你以為現在戰爭里扣扳機的還是人?其實AI已經悄悄接管了大半決策權!
國際社會一直說“扣動扳機的必須是人,而非機器”,可現實早就走樣了。名義上無人武器只是替代前線暴露,AI大模型也只是給作戰建議,但真的是這樣嗎?
想象你是個無人機飛手,坐在屏幕前盯著數十公里外的熱成像畫面。幾個模糊的紅點晃來晃去,是士兵?傷兵?還是平民?信息就這么點,你怎么判斷打不打?或者你在前線附近,戴著VR眼鏡緊張到心跳加速,看到個疑似逃跑的“士兵”就沖上去,撞上前才發現是穿軍裝的平民——這種誤判,離我們真的遠嗎?
![]()
好消息是俄烏戰場這類情況不多,但那是因為前線40公里寬的區域早沒平民了。可如果下一場戰爭開局,就是一堆視野有限、成像模糊的無人機互相掃射呢?到時候,誰來為那些模糊目標的生命負責?
更大的問題在AI輔助軍事決策上。美國西點軍校的學者們都在吵:當AI處理的數據多到人類根本看不懂,指揮官怎么才算“認真審查”了AI的建議?給沒給夠思考時間?
美以伊戰爭已經露出苗頭。美軍第一次用大模型給大規模作戰方案,一開始還集中炸軍事目標,后來就擴到政府、警察局,甚至公路橋梁這些基礎設施。外界都猜是不是AI根據伊朗的戰爭韌性給出的分階段打擊建議,連西點學者都在辯“平民領導人和警察算不算軍事目標”——這哪還是機械化戰爭時代的“體面”打法?
日常生活里我們問AI的問題大多沒標準答案,可戰爭里呢?如果AI被要求“速戰速決”,它會怎么算軍事利益和平民傷害的比例?它告訴你方案“不體面”但高效、沒法律風險,你用不用?
更可怕的是,當AI給出“最優解”,決策者會不會直接放棄思考?到時候,按按鈕的還是人,但下達指令的其實是AI——戰爭就徹底變了味。
學者們給出了不少辦法:定期清理數據、明確責任權限、培訓指揮官懂AI,甚至給AI加阻斷機制,比如識別出醫院就直接跳過。可讓人悲觀的是,AI對“軍事必要”的極端計算,只會讓人類對附帶傷害的容忍度越來越高。
你想想,當AI把所有選擇都量化成數字,人類還能守住“人決定生死”的底線嗎?未來戰爭里,AI該被限制到什么程度?是完全禁止自主決策,還是有條件使用?評論區說說你的看法,看看大家都怎么想!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.