AI行業(yè)的“加速敘事”忽略了關于人體、人類心智、人類行為及人類社會的基本事實。它可能會將我們拖入一個反烏托邦的未來。
作者:Luiza Jarovsky, PhD 2026年3月6日
當今AI行業(yè)的主要承諾是生產(chǎn)力和加速。
人們將使用AI在更短的時間內完成更多任務;AI將自主創(chuàng)建并完成更多任務;AI 將協(xié)調其他AI共同自主創(chuàng)建并完成更多任務。
AI行業(yè)稱,作為結果,各國將從這種AI驅動的產(chǎn)量增長中獲得經(jīng)濟收益。我們將進入一個“智能富足”的時代,即使是技術上最復雜的挑戰(zhàn)也能在短時間內得到解決,例如,治愈所有疾病。
上述前提是當今AI行業(yè)主流話語的一部分,它們幫助維持著數(shù)百億美元投資的流動。
然而,當你放大觀察人類如何與AI互動,以及“AI 賦能的加速”到底意味著什么時,你會意識到這些承諾是建立在錯誤前提之上的。
它們忽略了關于人體、人類心智、人類行為和人類社會的基本事實。此外,這些錯誤的前提正將我們拖向一個反烏托邦的未來:在這個世界里,為了在機器優(yōu)先的環(huán)境中生存,我們將被迫不斷壓縮自身生理邊界、忽視心理需求、貶低人類表達。
無論我們的技術工具多么閃亮、先進和令人印象深刻,我們人類都是生命體。
作為生命體,存在著由數(shù)百萬年進化塑造的、受生物編碼限制的邊界,我們無法真正逃脫。人類的平均壽命是73歲,我們需要大約7小時的睡眠、3升水和每天2,000卡路里的熱量來保持健康。
除了生理需求,我們還有情感和心理需求,包括安全感、愛、歸屬感、自尊和自我實現(xiàn)。未能滿足這些需求中的任何一項都可能導致疾病甚至死亡。
這些是硬性的限制,無法通過增加算力、更大的數(shù)據(jù)集、新的訓練方法或更高效的芯片來提升。
盡管我們中的一些人在日常生活中使用一系列數(shù)字工具,但我們本質上是模擬式生命體 / 非數(shù)字化存在(analog)的。我們的生物系統(tǒng)以一種連續(xù)變化的物理方式運行。我們出生,然后有一天我們會死去。死亡是生命中唯一確定的事。
因此,我們有意識或無意識地花費大量時間處理自身有限性帶來的挑戰(zhàn):
- 我為什么在這里?
- 我的目標是什么?
- 我如何讓我的生活更有意義?
活著,就是要在我們存在的每一天里尋找意義,發(fā)現(xiàn)自己的旅程并賦予其價值。我很遺憾要向AI行業(yè)宣布:這與加速或生產(chǎn)力毫無關系。
我從未聽說過有誰在臨終前遺憾自己沒有變得更高效或更快速。
事實恰恰相反。根據(jù)布朗妮·維爾(Bronnie Ware)的《臨終者的五大遺憾》,人們在最后日子里表達的最普遍的五個遺憾是:
- 我希望我有勇氣過一種真實面對自己的生活,而不是別人期望我過的生活。
- 我希望我沒那么拼命工作。
- 我希望我有勇氣表達自己的感受。
- 我希望我和朋友們保持了聯(lián)系。
- 我希望我讓自己過得更快樂。
人們后悔沒有少干點活。人們后悔沒有過上更具意義、更忠于自己及內心感受的生活。人們后悔沒有花更多時間陪伴朋友。
作為人類,我們渴望連接、歸屬、意義和愛。理想情況下,我們的活動應該支持這些。除此之外的一切都是一種分心,我們以后可能會感到后悔。
這與AI有什么關系?
圍繞AI的很大一部分論調都聚焦于“加速”的概念。在實踐中,對于個體而言,AI 賦能的加速通常涉及:
- 將任務委托給AI系統(tǒng),從而失去對工作流程和產(chǎn)出的控制;
- 由于在創(chuàng)作和智力任務中持續(xù)使用AI,導致無法培養(yǎng)核心技能;
- 由于持續(xù)的AI自動化導致技能退化(Deskilling);
- 必須管理大量AI生成的任務,卻不了解每個過程和決策是如何運作的;
- 由于無處不在的自動化,導致與人類團隊更加孤立和脫節(jié);
- 等等。
AI賦能的加速往往與人類的身體和心理需求背道而馳。它們并不支持連接、歸屬或意義。
例如,最近的一項研究表明,AI并沒有減少工作量,反而增強了工作的強度,這種增強并不一定是凈正面的:
“工作量的蔓延反過來會導致認知疲勞、職業(yè)倦怠和決策能力減弱。初期享受的生產(chǎn)力爆發(fā)可能會讓位給低質量的工作、人員流失和其他問題。”
另一項研究顯示,AI對技能形成產(chǎn)生了負面影響,尤其是在初級員工中:
“我們的結果共同表明,如果員工不保持認知投入,將AI激進地引入職場會對勞動者的專業(yè)發(fā)展產(chǎn)生負面影響。考慮到時間壓力和組織壓力,初級開發(fā)人員或其他專業(yè)人士可能會依賴AI盡快完成任務,而代價是失去真正的技能培養(yǎng)。”
此外,我不確定提議中的“AI賦能加速”是否真的能產(chǎn)生所承諾的益處,比如治愈所有疾病和解決無數(shù)其他復雜挑戰(zhàn)。
原因之一是:持續(xù)的加速與人類維持對過程和決策的有效控制的能力之間存在不兼容性,而這些控制正是通往積極成果的關鍵。
為了讓AI的能力轉化為實質性的人類和社會福祉,它們必須在一個由人類組成的世界中產(chǎn)生意義。這個世界里的人類是有著硬編碼需求和邊界的生物。是知道自己會死、并試圖在日常生活中尋找意義、目標和連接的生命體。
如果AI行業(yè)繼續(xù)推動不斷增長的加速,而人類無法對AI賦能的過程和結果保持有效的控制、監(jiān)督和審查,一個可能的后果就是失控的混亂。
由此,存在幾種潛在的未來,包括:
- 機器統(tǒng)治(AI崇拜): 我們認定AI系統(tǒng)比我們更聰明、更快、更有智力天賦,因此為了“進步與創(chuàng)新”,它們應該完全控制決策過程。我們將人類視為有限的實體,必須將決策權委托給日益智能的機器。我們將AI系統(tǒng)視為我們必須尊重的“特殊實體”或“外星人”。最終我們無法完全掌控結果,無論好壞。
- 以人為本的治理(AI作為工具): 我們認定AI是一種極其強大的技術,需要嚴格的人工監(jiān)督和控制。我們明白AI應該是促進人類繁榮的工具,因此AI的開發(fā)和部署應遵循以人類主導的創(chuàng)新、人類福祉和保護基本權利為核心的規(guī)則。我們可能必須限制某些AI使用案例,以防止弱勢群體受損和災難性風險。
明確地說,AI行業(yè)目前正在推動上述第一種選擇,正如我在最近關于Claude新憲法、尤瓦爾·赫拉利在世界經(jīng)濟論壇的演講以及AI偶像崇拜的文章中所討論的那樣。
我真誠地希望我們能夠推動變革,使未來更接近第二種選擇——將支持人類的政策、權利和規(guī)則放在首位,并由人類保持控制權。
本文編譯自substack,原文作者Luiza Jarovsky, PhD
https://www.luizasnewsletter.com/p/ais-acceleration-paradox
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.