![]()
圖片來自電影《恐怖谷》
?有界UnKnown原創
作者丨錢江
編輯|山茶
近日,烏克蘭國防部宣布,將在2026年上半年訂購25,000套地面機器人綜合體 (GRC)。相當于2025年全年需求的2倍。烏克蘭國防采購署已與制造商簽署了19份合同,總價值達110億格里夫納,計劃實現后勤完全自動化。
這可不是我們想象的,一群人形一樣的機甲戰士,在戰場上相互廝打。烏克蘭采購的,是一類履帶式、輪式的小型地面機器人,它們的核心能力不是“自主作戰”,而是通過穩定通信,實現人類的遠程操控。
也就是說,烏克蘭采購的機器人,雖然被投入戰場,但是替代的是人類“執行”的環節,并非“決策”環節。
但隨著AI不斷提升機器人的智能化水平,未來更高自主性的機器人進入戰場,已是一種可以預見的趨勢。當機器人在戰場不僅只做“執行”,還可以參與做“決策”的時候,如何保證機器人不會“濫傷無辜”?
烏克蘭成機器人戰爭“試煉場”
具體來看,烏克蘭采購的地面機器人綜合體 (GRC)不是單一的機器人,而是一整套可用于地面作戰的無人機器人系統,它可以用來替人上前線完成高風險任務,比如運送彈藥、醫療物資甚至拖運傷員。
它分為三個部分:
第一部分,是無人地面載體(UGV),也就是機器人本體,主要的形態是履帶式和輪式,其中履帶式最常見,適合泥地、戰壕等不平整的地面行駛。UGV主要用于運送彈藥和物資,做一些排雷的工程作業。
第二部分,是控制與通信系統,這套系統的核心是實現即便人類不在現場,也能遠程看見并遙控機器人,包括遙控終端、加密通信鏈路、視頻回傳系統等。
第三部分,是任務模塊,它主要決定機器人能做什么,比如武器模塊、排雷設備、偵查傳感器等。
之所以在這個時間點,用上億美金采購機器人設備,有兩層原因。
一是現實壓力。長期戰爭消耗下,烏克蘭面臨的是人力的持續流失,尤其是前線所需的年輕勞動力越來越緊缺。在這種情況下,用機器替代人進入高風險環節,不再是選擇,而是必然。
二是戰場反饋。烏克蘭方面近期披露的一次行動,進一步強化了這一判斷。
4月中旬,烏克蘭總統澤連斯基宣布,烏軍在一次戰斗中,僅依靠地面機器人和空中無人機攻占了俄軍陣地,未投入步兵力量。按照官方說法,“俄羅斯士兵在面對無人車輛時投降,烏克蘭方面沒有損失”。
![]()
▲ 面對無人車輛大軍,俄軍士兵投降了
盡管這一戰的細節尚未完全公開,也缺乏更多獨立驗證,但至少說明一點:
機器人已經開始進入“替人上前線”的階段。
據總統稱,過去三個月里,烏克蘭地面機器人已在前線執行了超過22000次任務。意味著,它們不再是試驗性裝備,而是被反復調用的前線工具。
在資金層面,這一體系具備現實基礎。
歐美以軍事和財政支持形式進入烏克蘭國家預算,間接支撐國防開支;政府再通過采購體系轉化為具體訂單。與此同時,像Come Back Alive等民間組織通過眾籌補充無人機等前線需求,形成一種以國家資金為主、民間補充的混合供給結構。
烏克蘭的意義不在于“第一次使用無人裝備”,而在于第一次把無人系統打成規模化、體系化的戰爭能力。烏克蘭戰場就是現代各類裝備的試煉場。戰爭持續打下去,很有可能成為機器人最先成熟的應用場景。
當未來機器人替代戰場上的士兵之時,戰爭的瓶頸,也就從“拼人命”變成“拼產能”。
那么,當機器人替代人力,戰爭或許變成一場生產競賽。
AI和機器人,邊界應該在哪里?
說起機器人上戰場,讓我想起我們前幾天一篇關于人形機器人馬拉松()的文章。
當時評論區有網友提出過一個問題:“機器人要它跑這么快干什么?追求速度的話,完全可以買輛車。”
另一個網友開玩笑道:上戰場!
當然,這件事情也并不是完全開玩笑,畢竟前幾年很火的四足機器狗,如今已經在很多部隊實現了列裝,那么,人形機器人,未來也有可能走上戰場嗎?
相信很多人心里都是有答案的。
這也讓我想起一部2015年發布的阿根廷動畫短片《Uncanny Valley(2015)》(中文:恐怖谷),其大概意思一群人沉迷于高度擬真的VR射擊游戲:在游戲中,他們在廢墟戰場中執行任務、消滅“怪物”,一切看起來不過是刺激的娛樂。
![]()
▲ 圖片來自電影《恐怖谷》
但隨著游戲出現故障,畫面細節逐漸失真,主角逐漸意識到,他們所處的并非虛擬世界,而是通過遠程操控人形機器人的方式,參與一場真實的戰爭。因此,那些被擊殺的也并不是怪物,而是另一個國家的普通人——有女人、有孩子、有保衛家人的男人......
他發現,所謂“游戲”,其實是一場被包裝過的入侵與屠殺。
在這個短片末尾,主角接受不了這個事情,通過在游戲中自殺的方式回到了現實,但等待他的,是一隊荷槍實彈的人形機器人......
結合今天技術發展現狀來看,這部短片最重要的一個啟示其實是,技術應該有邊界。
如今,AI大模型早已經被用到了軍事領域。
據華爾街日報報道,美軍中央司令部明確表示,在美伊戰爭中,AI“每天都在用”,主要用于處理海量情報、加快決策。
這里就不得不提到最近發生的另外一件事情。
今年(2026年)二月份,美國軍方將Anthropic納入“供應鏈風險”名單,原因是Anthropic拒絕接受五角大樓提出的條款:涉密環境下,AI模型應可用于“所有合法用途”,不得被“政策約束”限制軍事應用空間。
而Anthropic卻始終堅持兩條“紅線”:
第一,AI模型不得用于美國國內大規模監控;第二,AI模型不得用于完全自主武器系統(即無需人類授權即可開火的武器)。
在這件事情中,Anthropic因為拒絕五角大樓而被美國軍方“封殺”,但也獲得了美國民眾的大力支持;與Anthropic相反,在Anthropic與美國軍方談判破裂后,僅僅幾個小時,OpenAI就與五角大樓達成了協議,當然,相應的,OpenAI也收到了美國民眾的抵制。
所以,其實到今天,我們應該如何給AI、給機器人的使用設定一個界限,已經是一個重要且迫在眉睫的問題。
現在國際社會針對這一點的討論也十分尖銳,世界上不同立場的人們也都有自己的主張。
這里面,最著名的反對派是現任聯合國秘書長古特雷斯,他認為:“在沒有人類控制的情況下,機器擁有決定人類生死的權力,在政治上不可接受、在道德上令人厭惡,而且應該被國際法禁止。”
紅十字國際委員會主席斯波利亞里奇的觀點要溫和一些,她主張通過國際法來規范致命自主武器系統,核心是保留人類對武力使用的控制。即重點不是抽象的反AI,而是保住人類的“控制權”。
在歐洲,歐盟的觀點一直比較謹慎,他們認為國際法完全適用于這類系統,而且在可能的發展和使用過程中,必須有適當的人類控制。
核心就是,發展可以,但是要先立規矩。事實上,歐盟也是世界上最早推出《人工智能法案》的地方,這項法案已在2024年8月生效。
![]()
▲ 歐盟《人工智能法案》中的AI風險等級金字塔
作為對比,美國在這方面的觀點更加開放。
他們擔心,過度的監管限制AI的發展。比如現任美國副總統萬斯就在2025年巴黎AI峰會上的表態:如果用繁重監管去限制AI發展,不僅會不公平地利好既有巨頭,還會讓最有前景的技術之一陷入癱瘓。
但在美國軍方,特別是作為AI在戰爭場景中的實際使用者,他們的態度還是相對克制,他們雖然主張不能“一刀切”限制AI,也應該保留“人類判斷”和堅持“負責任使用”。
美國國防部3000.09指令[1]寫得也很清楚:自主和半自主武器系統要讓指揮官和操作員對武力使用保持“適當水平的人類判斷”,還要經過測試、驗證和高級別審查。
但問題恰恰也在這里。
無論是聯合國、歐盟,還是美國軍方現有的表述,本質上都還停留在“如何管理技術使用”的層面:哪些場景能用、誰來授權、出了問題誰負責。
可當機器人和AI越來越深地進入戰爭系統,僅靠流程、審查和指令,或許還不足以回答那個更根本的問題——我們究竟應不應該把“決定傷害誰、殺死誰”的權力,一步步交給機器。
![]()
▲ 圖片來自《愛,死亡和機器人》
也正因為如此,人類今天面對的,已經不只是治理問題,而是一個更古老的倫理問題。
早在20世紀40年代,美國著名科幻作家就提出了機器人三定律:
機器人不得傷害人類,或坐視人類受到傷害;
機器人必須服從人類命令,除非該命令違反第一定律;
機器人必須保護自己,除非這與第一或第二定律沖突。
那么今天,當機器人距離人類的生活已經近在咫尺,我們有給AI、給機器人設定這樣的“三定律”嗎?
誰又掌握著這個潘多拉盒子的鑰匙呢?
[1]3000.09指令:美國軍方2012年出臺的一項正式指令,主要目的是給“AI和自主武器”劃的一套內部規則底線。
歡迎添加微信:cyxx-z
加入「有界UnKnown」科技交流群
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.