美伊戰(zhàn)爭,AI參與決策,人類滅亡還遠嗎?
美伊戰(zhàn)爭的新聞,越看越心驚——不只是因為炮火猛烈下生命的脆弱,而是在新聞中看到一個細節(jié):此次美軍的很多關(guān)鍵打擊決策,居然是AI幫著做的。
可能有人覺得,AI幫忙決策不是挺好嗎?機器比人冷靜,不會情緒化,還能處理海量數(shù)據(jù),減少失誤。但我越想越后背發(fā)涼,咱們先不說戰(zhàn)爭本身的對錯,就說把決定生死、甚至可能引發(fā)更大沖突的權(quán)力,交給AI,真的靠譜嗎?
在AI眼里,生命只是一串數(shù)據(jù),誤差只是一個數(shù)字,但對我們普通人來說,那就是一條條鮮活的命啊!更可怕的是,AI有個“黑箱”問題,它怎么得出的結(jié)論,沒人能說清楚,一旦出了錯,都不知道該怪程序員、指揮官,還是算法本身。
有人問,這跟人類滅亡有啥關(guān)系?別急,咱們往深了想。現(xiàn)在大國都在搞AI軍事競賽,要是大家都把戰(zhàn)爭決策交給AI,后果不堪設想。有兵推研究顯示,要是雙方都讓AI主導,73%的推演都會突破核威懾平衡,而人類決策只有12%。
AI也許不懂什么叫“毀滅”,它只會算概率、算成本,甚至會比較“核交換后重建效率”。萬一哪天,AI誤判了一個信號,或者被別有用心的人利用,按下了核按鈕,那可不是一場局部戰(zhàn)爭那么簡單,整個地球都可能跟著遭殃。
我不是說AI本身不好,它能幫我們做很多事,比如搞科研、提高效率。但把戰(zhàn)爭這種關(guān)乎人類存亡的大事,交給沒有情感、沒有道德底線的AI,真的太冒險了。
很多AI領域的大佬都在警告,未來幾十年,AI導致人類滅絕的概率大概在10%左右,這不是科幻,是實實在在的風險。現(xiàn)在美伊戰(zhàn)爭里AI的參與,就是一個危險的信號——我們正在一步步把自己的命運,交給我們自己創(chuàng)造的機器。
人類滅亡遠不遠,其實不在于AI有多強大,而在于我們能不能守住底線:任何影響生死的決策,最終都必須掌握在人類手里。畢竟,機器可以計算一切,卻永遠不懂生命的重量,更不懂什么叫珍惜。
但,更令人擔心的是,AI會不會覺醒?《終結(jié)者》電影會成為現(xiàn)實嗎?一旦AI覺醒,它會不會認為,地球沒有人類會更好,屆時,渺小的人類該如何自處?
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.