![]()
當今世界,新一輪人工智能熱潮正席卷全球,機器學習、大數據等技術的突破和迭代更新迅速延伸至各學科領域,逐步成為這些學科領域未來發展的基礎性支撐。在萬物互聯的大背景下,人工智能已成為21世紀橫跨計算機、心理學、哲學等領域的尖端技術之一,對現代戰爭的形態與模式產生了深刻且深遠的影響。與其他新技術一樣,人工智能技術也是一把“雙刃劍”。尤其是將該技術應用于武器裝備領域時,即便機器具備了人類的思維認知能力,但也無法擁有人類所特有的社會屬性,即難以受到道德和經濟利益的束縛。由此可見,如何應對并破解戰爭中人工智能機器人的倫理問題,便成為當今戰爭倫理研究領域的緊迫課題。本文將結合機器人三大定律,從戰爭倫理與道德哲學的思辨性視角,深入剖析人工智能機器人(特指類人智能的機器人)應用于軍事領域所引發的根本性倫理問題。
基于機器人三大定律的
倫理爭議探討
機器有權殺人嗎?針對這個問題,我們不妨先回顧一下知名科幻作家阿西莫夫曾提出的機器人三大定律:第一,機器人不得傷害人類,或因不作為而使人類遭受傷害;第二,除非違背第一定律,機器人必須服從人類的命令;第三,除非違背第一及第二定律,機器人必須保護自己。這一著名的機器人三大定律,其核心意義在于提醒人們,人工智能技術的發展必須要恪守相應的倫理準則。
![]()
科幻作家阿西莫夫
機器人三大定律中的第一條就是“機器人不得傷害人類”,但“傷害”本身就是一個難以準確定義的概念。尤其當機器人被應用于軍事領域時,這一概念會因情境的特殊性而變得更加模糊和復雜。將人工智能技術融入機器人,并投入未來戰場中,這本身就是一個亟待深入探討的戰爭倫理問題。
人工智能機器人作為人類制造的產物,若在戰場上實施殺傷行為,是否可將其視為人類的創造物出現了“異化”?要回答這一問題,需深入剖析人工智能的本質,并結合戰爭的本質展開辨析。戰爭本質上是一種暴力沖突,從這一屬性來看,“機器殺傷”似乎具備了形式上的某種合理性。然而戰爭的本質更是政治的延續,機器無法獨立承擔其實施殺傷行為所引發的法律與倫理責任,相應責任須由操控機器的人類主體或相關組織承擔,因此機器本身不具備實施殺傷行為的“權力”。
![]()
美軍專家計劃旨在賦予人工智能
自動識別并生成攻擊建議的能力,
圖為該計劃中的Maven 智能系統
美國防部自2017年啟動的專家計劃,便是人工智能應用的典型案例之一。該項目于2022年移交美國國家地理空間情報局,旨在賦予人工智能自動識別目標并生成攻擊建議的能力。這一技術的發展趨勢雖未直接指向人工智能機器人自主決定實施殺人行為,卻已引發相關倫理爭議,且與機器人三大定律中的第一定律形成潛在的核心沖突。例如,戰場上人工智能系統被編程為“敵方戰斗人員=合法目標”,但現實戰場的復雜性遠非算法模型所能涵蓋:一方面是平民誤判;另一方面是戰斗人員與非戰斗人員的識別認定界限變得愈發模糊。這一切都指向一個亟待厘清的核心問題:如果人工智能系統自主發起攻擊,是否違背了“不得傷害人類”的基本原則?
用于戰爭的人工智能機器人
與其背后的倫理問題
過去的機器旨在節省人的體力,現在的人工智能機器人逐步承擔起替代人類智力的功能。人工智能機器人的軍事化運用,或將因現有國際軍備管控條約存在的漏洞與空白,助推此類機器人武器的全球擴散。
![]()
機器人要與道德和正義有機結合,
才能具備成為行為體的可能
人工智能機器人的人性缺陷問題。人性,或者說是人文主義,理應成為人工智能發展的一盞明燈。人工智能作為現代科技的核心成果,其發展具有科技的“雙刃劍”特性——解放人類和發展人類,但同時也潛藏著諸多弊端。若我們不能謹慎看待機器人戰爭背后的倫理問題,就有可能面臨被脫離倫理規范約束的機器人戰爭所吞噬的危險。網絡上存在著“人類將要被人工智能打敗”的擔憂;更有觀點認為,“必須慎重發展人工智能,不久的將來,人類將會被人工智能所代替,最終將變得一無是處”。這類論調無疑只看到了事物的一面,恰恰凸顯出未來人工智能戰爭所蘊含的倫理隱患。如果我們不重視倫理層面的問題,不及時對人工智能機器人進行倫理規范與約束,其后果將不堪設想。
人工智能機器人的理性缺失問題。戰爭是推動一門技術從誕生到成熟的加速劑。可應用于戰爭的人工智能機器人,一旦被投入到戰場并適應了戰爭需求的變化,就有可能進化為高效精準、脫離人類操控的殺傷性武器,而這一進化過程,恰恰會讓其理性先天缺失的核心問題被無限放大。這會對戰爭的政治屬性形成反噬,最終必然會讓己方在戰爭中陷入政治被動。
人工智能機器人的本性缺位問題。本性主要是指人類的向善本性。從人性的角度來看,大多數士兵對殺戮行為會本能地產生反感,但人工智能機器人并不具備這一本性。正因為它缺乏人類的情感與價值判斷,一旦在軍事領域廣泛應用,便難以避免會產生違背指揮官意志、引發不可預期的戰場狀況。而這種先天的本性缺失,也讓人工智能機器人在投入戰爭后,極易引發兩方面的關鍵問題:一是會導致戰爭破壞性的擴大,這是因為其缺少了人類對戰爭的恐懼感與厭惡感;二是其機動性不受電池電量之外的其他因素制約,這一特性拓展了戰役戰術的機動邊界——機器人不知疲倦,可執行長途奔襲任務,這顯然會大大增加戰爭的不對稱性。
破解戰爭中使用人工智能
機器人倫理問題的建議
哲學上,人們把道德與經濟利益看作是倫理的基本問題。而人工智能機器人對人類沒有同情心,自然不會對目標手下留情,一旦被啟動,其強大的破壞力便會使其成為冷血的“殺人機器”。在戰爭中,敵對雙方均受基于人類社會理性形成的戰爭倫理制約,也就是說,戰爭倫理的存在對戰爭的破壞性能起到制衡的作用,讓戰爭的破壞力始終處于人類可承受的范圍內。我們研究戰爭中使用人工智能機器人的倫理問題,目的就在于超前研究機器人戰爭伴生的戰爭倫理問題,并力求在未來戰爭爆發之前,尋求解決這一問題的具體對策。
給機器人這把雙刃劍加上“人工道德”的劍鞘。對待人工智能機器人這類新事物,我們既要秉持批判態度,更要保持謹慎與客觀的理性思考。人工智能機器人的倫理問題,本質上就是“人工道德”問題,這一問題從源頭上來看,由人工智能技術衍生而來。這就要求科學家清醒認識到,科學技術并非無禁區,需秉持理性原則發展人工智能技術。部分觀點認為,如果包括機器人在內的智能產品能夠具備“人工道德”,那么從某種意義上講,智能產品行為的倫理責任將從設計者與使用者轉移至智能產品本身。因此,對自主性要求日益提升的人工智能機器人而言,科學家應注重其人工道德的設計與塑造,更應推動其自身成為人工道德行為體。相較于材料構造、性能參數等硬指標,讓人工智能機器人具備道德判斷與思考能力的軟指標,其重要性同樣不容忽視。
給機器人這種類人體嵌入“正義倫理”的標準。機器人通過模仿人類思維具備類人特征,這正如計算機網絡之間文本傳輸依托統一協議,當將其應用于戰場時,必須先明確一個問題——不同機器人之間,需建立起具備“協議”作用的統一道德約束規范,且這一協議本身要根植正義倫理的內核。戰爭中,敵對雙方的機器人均服務于己方作戰目標與政治目的,為爭奪戰爭利益而存在,這也為我們建立類人智能之間的統一道德聯系造成了巨大阻礙。其根源在于人類自身,換言之,科學家需清醒認識到,科學與倫理有著截然不同的選擇與評價標準。因此,在開展機器人設計時,要將科學與倫理有機結合,而非僅局限于科學范疇。
給機器人這一新事物接上“社會屬性”的芯片。政治可以使文化免于沉淪,也能為人類文明發展錨定方向。愛因斯坦曾說過:“科學家對社會政治問題一般顯得很少有興趣。其原因在于腦力勞動的專門化,造成了對政治和人類問題的盲目無知。”機器人在戰爭中的倫理問題,本質上反映的是機器人的出現及其軍事應用,會引發怎樣的道德與經濟利益變化,以及這種變化是否契合人類在道德準則與經濟利益層面的普遍預期。也正因如此,有人擔憂這類道德與經濟利益層面的變化,可能會引致人類文明的毀滅。從文章開篇提及的機器人三大定律可知,機器人的本質是人類的附屬品,其社會屬性體現在作為人類的工具而存在,而非脫離人類獨立發展。人工智能本身,是人類依托自身區別于動物的特有能力,賦能自身社會屬性提升、進而實現自我解放的一種新嘗試,而這一嘗試,必然存在讓人類陷入新災難的潛在可能。
免責聲明:本文轉自軍事文摘,原作者王流選、李龍林。文章內容系原作者個人觀點,本公眾號編譯/轉載僅為分享、傳達不同觀點,如有任何異議,歡迎聯系我們!
轉自丨軍事文摘
作者丨王流選、李龍林
研究所簡介
國際技術經濟研究所(IITE)成立于1985年11月,是隸屬于國務院發展研究中心的非營利性研究機構,主要職能是研究我國經濟、科技社會發展中的重大政策性、戰略性、前瞻性問題,跟蹤和分析世界科技、經濟發展態勢,為中央和有關部委提供決策咨詢服務。“全球技術地圖”為國際技術經濟研究所官方微信賬號,致力于向公眾傳遞前沿技術資訊和科技創新洞見。
地址:北京市海淀區小南莊20號樓A座
電話:010-82635522
微信:iite_er
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.