![]()
(來源:MIT TR)
近年來,通用人工智能(AGI)被賦予近乎神話的力量:有人堅信它將治愈疾病、拯救地球、開啟人類的富足時代;也有人警告它會帶來終極災難、終結(jié)人類文明。無論是烏托邦還是末日論,AGI 已成為當下主流敘事之一。它尚未發(fā)生,卻主導了資本流向、科技政策與公眾想象。
但當我們剝開這層層敘事,不禁要問:我們狂熱追隨的,究竟是一項確鑿的技術(shù)未來,還是一場精心編織的現(xiàn)代神話?越來越多跡象表明,圍繞 AGI 的集體狂熱,已展現(xiàn)出類似陰謀論的特征——一個我們時代最“高級”的陰謀論。
![]()
硅谷是如何被 AGI “洗腦”的
早在 2007 年,人工智能還遠沒有今天這么光鮮。亞馬遜和 Netflix 那時已經(jīng)涉足了機器學習,但也只是用它來推薦書籍和電影,僅此而已。
不過本·戈策爾(Ben Goertzel)并不滿足于此,他懷揣著更大的夢想。大約十年前,這位人工智能研究者創(chuàng)立了名為“Webmind”的互聯(lián)網(wǎng)初創(chuàng)公司,試圖在早期網(wǎng)絡(luò)環(huán)境中培育他所構(gòu)想的“數(shù)字嬰兒大腦”。但由于缺乏資金支持,公司很快宣告破產(chǎn)。
戈策爾是一個小眾科技圈的核心人物,這個圈子的研究者一直夢想著創(chuàng)造出能像人類一樣思考甚至做得更好的智能。只是,他還需要一個響亮的名字把它和略顯平庸的人工智能進行區(qū)分。
當時 Webmind 的員工謝恩·萊格提出了“AGI”(Artificial General Intelligence,通用人工智能) 這一名字。聽起來有些遙不可及,但不失準確。戈策爾決定,就是它了。
幾年后,萊格(Legg)與德米斯·哈薩比斯(Demis Hassabis)和穆斯塔法·蘇萊曼(Mustafa Suleyman)共同創(chuàng)立了 DeepMind, 同樣扎根 AGI 領(lǐng)域。
但在當時大多數(shù)嚴肅的研究者眼中,人工智能終將模仿人類能力的論斷不過是個笑話。那么究竟發(fā)生了什么?AGI 如何在十幾年內(nèi)從荒誕不經(jīng)演變?yōu)楸娝苤?/p>
上個月我采訪了戈策爾,向他提出了我的疑問。他說:“我算是研究復雜混沌系統(tǒng)的人,所以對自身能真正理解記憶空間中非線性動態(tài)的認知持保守態(tài)度。”(簡單翻譯:事情很復雜,我不好說。)
戈策爾認為有幾個因素幫助推廣了這一理念。
首先是 AGI 會議——該會議常與頂尖主流學術(shù)集會同步舉辦,例如促進科學進步協(xié)會的年會、人工智能會議和國際人工智能聯(lián)合會議。
"如果我只是出版了一本名為《AGI》的書,它可能就會悄無聲息地消失,”戈策爾表示,“但會議每年都在巡回舉辦,吸引著越來越多的學生參與。”
"其次要感謝萊格,他將這個 AGI 術(shù)語帶到了 DeepMind。我認為他們是第一個在當時主流企業(yè)界討論 AGI 的公司。雖然這并非他們反復強調(diào)的核心議題,但這無疑為該領(lǐng)域提供了合法性依據(jù)。”
"五年前我首次與萊格討論 AGI 時,他坦言, 2000 年代初談?wù)?AGI 會被視為瘋子……即便 2010 年創(chuàng)立 DeepMind 時,我們在會議上仍遭遇大量白眼。但到 2020 年風向已變。雖然仍有部分人對此感到不安,但它正逐漸走出冷宮。”
戈策爾指出的第三點是早期 AGI 宣揚者與科技巨頭權(quán)力經(jīng)紀人之間的交集。戈策爾曾與 Paypal 創(chuàng)始人彼得·蒂爾(Peter Thiel) 有過合作。“我們聊了很多,”戈策爾回憶道。他記得有天在舊金山四季酒店與蒂爾共處一整天。“我試圖拼命向他灌輸 AGI 理念。”
那時的戈策爾還不知道,他不是“孤軍奮戰(zhàn)”。還有另一個人正在和他一起推動 AGI 這股浪潮前進。
![]()
末日論者登場
這個人就是埃利澤·尤德科夫斯基(Eliezer Yudkowsky),他在推動 AGI 理念方面所做的貢獻至少不亞于戈策爾,甚至可能更為突出。但與戈策爾對 AGI 的樂觀幻想不同,尤德科夫斯基認為 AGI 只會帶領(lǐng)人類走向滅頂之災
起初,尤德科夫斯基的觀點并未引起廣泛關(guān)注。要知道,當時的人工智能,都還只是純粹的科幻概念。直到 2014 年,牛津大學哲學家尼克·博斯特羅姆(Nick Bostrom)出版了《Superintelligence》(超級智能)一書,讓 AGI 的概念真正廣為人知。
比爾·蓋茨、埃隆·馬斯克等眾多科技界人工智能從業(yè)者都讀過此書,并且受其影響。無論是否認同他悲觀的末日論,尼克確實將埃利澤的理念以極具說服力的方式系統(tǒng)化地呈現(xiàn)了出來。
“所有這些都讓 AGI 獲得了宣傳,”戈策爾補充道,“它不再是一個虛無縹緲或者荒誕的概念。”
![]()
(來源:MIT TR)
如今,尤德科夫斯基的觀點比以往任何時候都更受歡迎。這吸引了像蒙特利爾大學研究員大衛(wèi)·克魯格(David Krueger)這樣的年輕末日論者。
“我認為我們正穩(wěn)步走向制造出殺光所有人的超人類 AI 系統(tǒng),”克魯格認為,“我們必須立即叫停。”
媒體們也開始爭相報道,尤德科夫斯基甚至被紐約時報冠以“硅谷版末日傳教士”的稱號。
他抓住熱度,與機器智能研究所所長內(nèi)特·索雷斯合著的新書《If Anyone Builds It, Everyone Dies》,提出了一系列缺乏證據(jù)支撐的驚人論斷:近未來的 AGI 將引發(fā)全球末日浩劫。
二人的立場十分極端:他們主張應(yīng)不惜一切代價實施國際禁令,必要時甚至可訴諸核武器報復。畢竟,尤德科夫斯基和索阿雷斯寫道:“數(shù)據(jù)中心造成的死亡人數(shù)可能超過核武器。”
該書一經(jīng)推出,就登上了《紐約時報》暢銷書榜,并獲得多位權(quán)威人士的推薦,包括美國諸多政客、科學家與社會名流, AGI 開始引發(fā)巨大的社會關(guān)注, 資本、政策開始紛紛押注。
2023 年,OpenAI 首席執(zhí)行官山姆·奧特曼(Sam Altman) 在 X 平臺發(fā)布:“在我看來,埃利澤為加速 AGI 發(fā)展所做的貢獻遠超任何人。毫無疑問,正是他讓許多人對 AGI 產(chǎn)生了興趣。”尤德科夫斯基或許有朝一日會因此獲得諾貝爾和平獎,奧特曼補充道。
這一切所帶來的影響,似乎與尤德科夫斯基的想法背道而馳。但不管他接受與否,AGI 已經(jīng)悄然滲透主流并牢牢扎根。
![]()
但 AGI 是什么?沒人知道
1945 年,第一臺電子計算機 ENIAC 問世僅五年后,艾倫·圖靈(Alan Turing)就提出了那個著名的問題:“機器能思考嗎?”不久后的 1951 年,他在一次廣播節(jié)目中說得更直白:“一旦機器學會思考,它們很快會超越我們有限的能力。機器不會死,還能相互交流、不斷進化。所以總有一天,我們得準備好把控制權(quán)交給它們。”
十年后的 1955 年,計算機科學家約翰·麥卡錫(John McCarthy)和同事向美國政府申請資金,打算開展一個他們頗具遠見地命名為“人工智能”的項目。
這個命名在當時看來近乎天方夜譚——畢竟那時的計算機還像房間一樣笨重,功能卻和恒溫器差不多。但麥卡錫在申請書中寫道:“我們將探索如何讓機器使用語言、形成抽象概念、解決如今只有人能解決的問題,并實現(xiàn)自我進化。”
正是這些早期預言,埋下了今天 AGI 神話的種子。所謂比人更聰明、無所不能的機器,與其說是技術(shù)目標,不如說更像一種脫離現(xiàn)實的幻想。
因為盡管投入巨資、爭論不休,沒有人真知道該怎么造出 AGI。
更麻煩的是,大多數(shù)人連它到底是什么都沒共識——這也解釋了為什么有人能一邊說它會拯救世界,一邊又說它將毀滅人類,卻沒人覺得矛盾。
大多數(shù)定義的核心都繞著同一個理念:機器能在廣泛的認知任務(wù)中達到人類水平。但這個定義本身也站不住腳:指的是哪些人類?哪些認知任務(wù)?“廣泛”實際有多廣?
“它根本沒有準確定義,”美國橡樹嶺國家實驗室前計算機部門負責人克里斯托弗·西蒙斯(Christopher Simmons)指出,“如果說以人類水平為基準——智能本身就有無數(shù)種可能,每個人的智能都各不相同。”
西蒙斯認為,我們因此陷入一場奇怪的競賽:到底要造個什么東西?“你究竟想讓它干什么?”
2023 年,谷歌 DeepMind 團隊(包括參與命名的萊格)曾嘗試梳理 AGI 的各種定義。有人認為它必須能學習;有人強調(diào)它得創(chuàng)造經(jīng)濟價值;還有人堅持它得有物理身體,能在現(xiàn)實世界活動(比如沖咖啡)。
萊格告訴我,當年他向戈策爾提議用這個詞作書名時,模糊性正是關(guān)鍵。“我當時沒有特別清晰的定義,也覺得沒必要下定義,”他說,“其實——它不像一個具體的東西,更像一個研究領(lǐng)域。”
所以,等它真出現(xiàn)了我們自然就知道?問題是,有些人認為 AGI 已經(jīng)降臨。
2023 年,微軟研究團隊發(fā)表論文,描述了他們對 OpenAI 大型語言模型 GPT-4 預發(fā)布版本的測試體驗。該團隊稱其為“AGI 的火花”——這一論斷在業(yè)界引發(fā)了激烈爭議。當時,許多研究者為之震撼,紛紛試圖用現(xiàn)有理論框架解釋所觀察到的現(xiàn)象。
“這東西的表現(xiàn)比我們預想的還要好,”戈策爾表示,“AGI 似乎不再那么遙不可及。”盡管如此,戈策爾仍然認為,大語言模型雖展現(xiàn)出卓越的文本處理能力,但并未真正觸及通用智能的核心。
“讓我有些意外的是,一些對這類工具底層機制有深刻理解的技術(shù)專家,依然相信它們有可能發(fā)展為人類水平的 AGI,”他說,“但另一方面,你確實無法完全否定這種可能性。”
事實正是如此:你無法證明它不可能實現(xiàn)。所有人也都在猜測它實現(xiàn)的時間,5年?10年?25年?沒人知道。
這像極了陰謀論。因為關(guān)于 AGI 何時到來的預測,準確度堪比占星師預言世界末日。這類預測無需承擔實際后果,借口總在刷新,時間線不斷重設(shè)。
今年夏天萬眾期待的 GPT-5 ,就是最好的例子。
然而,這并沒有被看作是 AGI 無法實現(xiàn)的證據(jù)——信徒們只是不斷推遲他們的預測。它總會到來的——只不過,你知道的,永遠都是“下一次”。
![]()
信則有,不信則無
每當我與那些研究人員或工程師交談時,他們總是不經(jīng)意地將 AGI 當作一個既定事實來談?wù)摚路鹚麄冋莆罩撤N我所不知道的奧秘。可始終沒有人能真正告訴我,那奧秘究竟是什么。
真相就在那里,只是你需要知道該往哪里尋找。杰里米·科恩(Jeremy Cohen)曾告訴我,陰謀論的核心在于“揭露隱藏的真相”:“這確實是陰謀論思維的基本特征,而我們在人們討論 AGI 時,也能清晰地看到這種特質(zhì)。”
去年,23 歲的前 OpenAI 員工、現(xiàn)任投資者利奧波德·阿申布倫納(Leopold Aschenbrenner)發(fā)表了一篇引發(fā)廣泛關(guān)注的 165 頁宣言,題為《Situational Awareness》(情境感知)。
你甚至無需通讀全文就能抓住其核心思想:你要么看清即將到來的真相,要么永遠停留在蒙昧之中。
這種認知甚至不需要冰冷的事實支撐——直覺上的感知便已足夠。而那些尚未“覺醒”的人,不過是因為還沒有領(lǐng)悟到其中的真諦。
類似的觀點也隱隱貫穿在我與戈策爾的對話中。當我問他,為什么有人會對 AGI 持懷疑態(tài)度時,他這樣回答:“歷史上每一次重大的技術(shù)突破——從人類飛行到電力的普及——總有許多聰明的評論家斷言那是不可能的。事實是,大多數(shù)人只愿意相信他們已經(jīng)親眼所見的東西。”
這使得 AGI 聽起來更像是一種信仰。我把這個看法告訴了堅信 AGI 可能在五年內(nèi)到來的 AI 研究者大衛(wèi)·克魯格。他不以為然地表示:“我認為這完全搞反了。”
在他看來,真正的“信仰”其實是堅信 AGI 不會實現(xiàn)——那些至今仍在否認“顯而易見”事實的懷疑者,才是真正執(zhí)迷不悟的人。
隱秘的真相吸引著那些自認的“真理追尋者”,他們執(zhí)著于揭示那些他們認為一直存在、只是未被看見的事物。然而,對于 AGI 而言,僅僅“揭示”是遠遠不夠的。它還需要一場前所未有的創(chuàng)造行為,而這也是它如此有吸引力的一個重要原因。
“那種認為自己正在孕育‘機器之神’的念頭,顯然極大地滿足了某些人的自我,”香農(nóng)·瓦洛爾指出,“想象自己正在為這種超越性的存在奠定最初的基礎(chǔ)——這種想法具有一種難以抗拒的誘惑力。”
這與陰謀論思維產(chǎn)生了另一種重疊。人們在一個看似混亂而無意義的世界中,對自身存在價值的渴求——渴望成為那個至關(guān)重要、能夠改變一切的人物。
克魯格在伯克利從事研究,他表示自己認識一些從事人工智能工作的人,他們將這些技術(shù)視為人類自然而然的繼承者。“他們看待這些技術(shù),幾乎就像看待自己的孩子一樣,”他說,“順便提一句:這些人通常沒有孩子。”
![]()
一個新的精神烏托邦
杰里米·科恩(Jeremy Cohen)發(fā)現(xiàn),許多現(xiàn)代陰謀論與新紀元運動(New Age movement)之間存在相似性——后者在 1970 至 80 年代達到頂峰。
該運動的信徒堅信,人類正站在一個全新精神福祉時代的門檻上,認為意識擴展將引領(lǐng)世界進入更和平、更繁榮的階段。簡單來說,其核心信念是:通過一系列帶有偽宗教性質(zhì)的實踐——例如占星術(shù)、精心挑選水晶等——人類能夠超越自身的局限,進入某種“嬉皮士式”的烏托邦。
當今的科技產(chǎn)業(yè)雖然建立在計算與算法之上,而非水晶或星座,但其對某些根本命題的認知卻呈現(xiàn)出相似的神秘學色彩。“你知道,那種關(guān)于徹底變革的想象——仿佛我們將迎來某種千禧年式的轉(zhuǎn)折,最終步入技術(shù)烏托邦的未來,”科恩指出,“而 AGI 終將幫助人類克服一切困境的信念,恰恰是這種核心想象的體現(xiàn)。”
在不少人的印象中,AGI 的到來將是突然的。人工智能的漸進發(fā)展會不斷累積,直至某一天,其能力強大到足以自主創(chuàng)造出更強大的人工智能。到那時——它將以驚人的速度演進,通過所謂的“智能爆炸”實現(xiàn) AGI 的突破,最終抵達一個不可逆轉(zhuǎn)的臨界點,即“奇點”。這個在 AGI 圈子流傳多年的特殊術(shù)語,至今仍被廣泛使用。
科幻作家弗諾·文奇(Vernor Vinge)最早借用了物理學中的“奇點”概念來描述技術(shù)發(fā)展的這一理論閾值。早在 1980 年代,他就提出在技術(shù)進步的路徑上存在一個“事件視界”——一旦越過這個界限,人類將被自己創(chuàng)造的、以指數(shù)速度自我進化的機器迅速超越。
香農(nóng)·瓦洛爾認為,這種信仰體系最顯著的特征在于:對技術(shù)的信仰已經(jīng)取代了對人類自身的信仰。她指出,盡管新世紀運動的思想帶有玄學色彩,但其中至少還保留著一種信念——人類只要能夠激發(fā)自身潛能,就足以改變世界。然而,在追求 AGI 的過程中,我們正在拋棄這種對“人”的信念,轉(zhuǎn)而接受“唯有技術(shù)才能拯救人類”的觀念。
對許多人來說,這種想法極具吸引力,甚至令人感到安心。“我們正處在一個時代,人類生活與社會物質(zhì)進步的其他途徑似乎已經(jīng)窮盡。”
技術(shù)曾被視為通往美好未來的階梯——穩(wěn)步引領(lǐng)人類走向社會繁榮。但瓦洛爾指出:“我們已經(jīng)越過了那個頂峰。如今在我看來,能讓許多人重燃希望、重拾對未來樂觀態(tài)度的,似乎只剩下 AGI。”
她進一步表示,如果將這種邏輯推向極致,AGI 最終可能被塑造成某種“神明”——一個被認為能夠為世間一切苦難帶來終極解脫的存在。
北卡羅來納大學的社會學家凱莉·喬伊斯(Kelly Joyce)主要研究文化、政治和經(jīng)濟信念如何影響人們對技術(shù)的理解與使用。在她看來,所有關(guān)于 AGI 的狂熱預言,其實都不過是科技行業(yè)長期存在的“過度承諾模式”的又一次體現(xiàn)。她說:“有趣的是,我們每次都深陷其中。人們似乎總是堅信技術(shù)優(yōu)于人類。”
喬伊斯認為,這正是為什么每當炒作興起時,人們總是傾向于相信它。“這就像一種宗教,”她說,“我們信仰技術(shù)。技術(shù)就是我們的上帝。要抗拒這種觀念非常困難——因為人們根本不想聽到別的說法。”
![]()
(來源:MIT TR)
![]()
最終幻想背后的代價
“計算機終將能完成人類所有任務(wù)”這一幻想無疑極具誘惑力。但正如許多廣為流傳的陰謀論那樣,這種幻想正帶來真實而沉重的后果。
它扭曲了我們對當前技術(shù)繁榮(及其潛在衰退)背后真實代價的認知,甚至可能將整個行業(yè)帶入歧途——讓資源從那些更緊迫、更務(wù)實的技術(shù)應(yīng)用中抽離。更關(guān)鍵的是,它讓我們心安理得地逃避。它誘使我們相信,或許可以跳過那些需要全球協(xié)作、政治妥協(xié)與高昂代價的難題,無論是氣候危機、公共衛(wèi)生,還是系統(tǒng)性不平等。既然機器很快就能替我們解決一切,我們何必再費心力?
這種發(fā)展背后的代價也鮮被追問。
看看這場豪賭所投入的資源。就在最近,OpenAI 與英偉達(NVIDIA)宣布了一項價值高達 1,000 億美元的合作,僅為滿足 ChatGPT 等模型的運行,預計就需要至少 10 吉瓦的電力——這相當于一座大型核電站的發(fā)電量。一道閃電瞬間釋放的能量或許也不過如此。
作為參照,電影《回到未來》中驅(qū)動德羅寧時光機的“磁通電容器”只需約 1.2 千瓦時。而僅僅兩周后,OpenAI 又與 AMD 達成另一項合作,再添數(shù)千兆瓦的電力需求。
在為英偉達交易站臺時,薩姆·奧特曼(Sam Altman)曾宣稱,若不建設(shè)更多數(shù)據(jù)中心,社會將不得不在“治愈癌癥”和“普及免費教育”之間做出殘酷抉擇。“沒人想面臨這種選擇,”他說。(諷刺的是,幾周后,OpenAI 便宣布將為 ChatGPT 推出情色內(nèi)容生成功能)更令人不安的是,這種對遙遠神話的追逐,正在擠占那些能切實改善當下生活的技術(shù)投入。
“在我看來,這是巨大的機會錯失,”人工智能醫(yī)療公司 Lirio 的首席 AI 科學家克里斯托弗·西蒙斯(Christopher Simmons)直言,“這是資源的嚴重錯配。明明有無數(shù)真實、緊迫的問題亟待解決,我們卻把海量資金投向一個定義模糊、前景不明的目標。”
“但當 OpenAI 這樣的公司手握千億資金時,它們其實不必做出務(wù)實的選擇,”西蒙斯補充道,“資本規(guī)模本身,就足以讓它們脫離現(xiàn)實需求的引力。”
這種扭曲的敘事也正滲透進政策領(lǐng)域。加州大學戴維斯分校的科技政策研究者蒂娜·勞(Tina Law)擔憂,政策制定者正被游說力量牽引,過度關(guān)注“AI 終將毀滅人類”的遙遠假想,而忽略了算法偏見、勞動替代、監(jiān)控擴張等當下真實存在的危害。對“存在性風險”的宏大辯論,反而將結(jié)構(gòu)性不平等、數(shù)字鴻溝等迫切議題邊緣化。
“炒作對科技公司而言是一門有利可圖的生意,”勞一針見血地指出,“其核心策略是營造一種‘不可避免’的敘事:如果我們不發(fā)展,別人就會領(lǐng)先。一旦某種技術(shù)被塑造成歷史必然,人們不僅會猶豫是否要抵制,更會懷疑自己是否有能力抵制。”
佐治亞理工學院的技術(shù)政策學者米爾頓·穆勒(Milton Mueller)則將 AGI 競賽比作當年的核軍備競賽:“它建立在一種危險的邏輯上——誰先掌握這項技術(shù),誰就能控制所有人。這種思維會徹底扭曲我們的外交政策與國際關(guān)系。”
穆勒進一步指出,企業(yè)乃至政府之所以熱衷推動 AGI 神話,背后是明確的商業(yè)與戰(zhàn)略動機。關(guān)鍵在于,這場競賽根本沒有公認的終點線。只要神話還能吸引投資與關(guān)注,它就可以被無限期地講述下去。
故事的結(jié)局或許并不復雜。它既非烏托邦,也非地獄——更可能的是,在抵達任何所謂“奇點”之前,OpenAI 與它的同行們,已在追逐神話的過程中賺得盆滿缽滿。
而世界面對的許多真實的問題,依然在那里。
![]()
新的“AGI”還在路上
迄今為止,我們還未討論到一個最典型的特征:陰謀論往往預設(shè)存在一個幕后操縱的權(quán)力集團,而信徒們相信,通過不懈追尋“真相”,就能揭開這個精英階層的面具。
當然,那些警惕 AGI 的人并沒有公開指控光明會或世界經(jīng)濟論壇在阻撓 AGI 的實現(xiàn)或隱藏其秘密。
但假如,真正的操縱者并非在阻止 AGI,而是在長期鼓吹 AGI 敘事呢?硅谷的巨頭們正在投入巨額資源,竭力開發(fā) AGI——而這首先是一門生意。對他們而言,AGI 的神話具有無比現(xiàn)實的商業(yè)與戰(zhàn)略價值。
正如一位人工智能公司高管近期私下透露的那樣:“AGI 必須永遠被描述為‘距離實現(xiàn)還有 6 到 12 個月’。如果顯得太遙遠,我們就無法從頂尖機構(gòu)吸引人才;但如果顯得太近……那故事還怎么講下去?”
香農(nóng)·瓦洛爾曾尖銳指出:“如果 OpenAI 公開說他們只是在打造能讓公司更賺錢的機器,公眾絕不會買賬。”你創(chuàng)造神,自己也得成為神。
正如大衛(wèi)·克魯格所觀察到的,硅谷彌漫著一種根深蒂固的邏輯:開發(fā)人工智能是獲取終極權(quán)力的途徑(這也是利奧波德·阿申布倫納《情境感知》的核心論點之一)。“我們即將擁有如神一般的力量,”克魯格說,“但我們的意識、倫理和制度卻并未準備好。很多人相信,誰先實現(xiàn) AGI,誰就基本掌控了世界。”
“他們投入巨大精力去推銷一個充滿 AGI 的未來圖景,并且憑借其影響力,已經(jīng)取得了相當大的成功。”他補充道。
本·戈策爾甚至對這個隱秘集團的成功流露出近乎悲哀的情緒。他開始懷念 AGI 仍處于邊緣、無人問津的歲月。“我們這一代投身 AGI 研究的人,既需要遠見,也需要固執(zhí)——甚至是一種蠻勁,”他說,“但現(xiàn)在呢?它變得就像你奶奶勸你別學哲學了,趕緊找份正經(jīng)工作一樣。”
“這種想法變得如此主流,實在令人困惑,”他坦言,“這幾乎讓我想轉(zhuǎn)行去做些真正冷門的東西——那些還沒被人群淹沒的領(lǐng)域。”他半開玩笑地(我猜)說:“顯然,給 AGI 收尾比滿足我個人探索前沿的偏好更重要。”
但我仍然不明白:他們到底在完善什么?如果我們?nèi)绱顺撩杂谶@個科技童話,對真正的技術(shù)發(fā)展究竟意味著什么?從很多方面看,我認為整個 AGI 理念建立在對人工智能能力的扭曲預期之上——甚至建立在對“智能”本質(zhì)的誤解之上。
歸根結(jié)底,AGI 論點的核心在于:人工智能已取得飛速進步且將持續(xù)提升。但暫且拋開技術(shù)層面的質(zhì)疑——若它未能持續(xù)進步呢?——剩下的主張無非是:只要擁有足夠數(shù)據(jù)、計算力或神經(jīng)網(wǎng)絡(luò),智能便能像商品般無限獲取。
可事實并非如此,智能并非可無限遞增的量化指標。智者可能在某領(lǐng)域卓爾不群,卻在其他領(lǐng)域平庸無奇。例如某些諾貝爾獎得主彈琴或育兒能力極差,還有某些所謂的“聰明人”堅稱 AGI 明年就會到來。
我們不禁要問:下一個讓我們上鉤的神話,會是什么?
通話結(jié)束前,戈策爾隨口提到他剛在舊金山參加了一場活動,“主題是關(guān)于超感官知覺、預知未來……那些東西。”
“這就是 20 年前 AGI 的處境,”他說,“那個時候,每個人都覺得這想法簡直離譜。”
參考資料:
https://www.technologyreview.com/2025/10/30/1127057/agi-conspiracy-theory-artifcial-general-intelligence/
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.