網易首頁 > 網易號 > 正文 申請入駐

谷歌DeepMind設正式崗位"哲學家"(附:首位任職者AI哲學論文)

0
分享至

昨天,DeepMind 創始人 Demis Hassabis 轉發了一條 X 帖子:劍橋大學哲學家 Henry Shevlin 宣布正式加入 Google DeepMind,出任一個極罕見的職位——“哲學家(Philosopher)”。


這不是某種修辭手法,Henry Shevlin 說,而是寫在正式入職合同上的“實際職稱”。

他將重點研究機器意識、人機關系以及 AGI(通用人工智能)的就緒度。

在 X 的回帖中,他推薦了自己的個人“博客波利多波利斯(Polytropolis)”。

介紹中,Henry Shevlin 自述從古典學研究者轉型為心靈哲學家,如今又成為一名人工智能倫理學者,“研究核心是意識、人工智能與非人類智能”。


他還推薦了博客首發的隨筆,探討機器意識與人類-人工智能關系。

隨筆里, Henry Shevlin 預判,未來普通大眾會普遍形成一種認知:至少部分人工智能系統擁有意識,值得獲得道德層面乃至法律層面的保護。

他指出,這一認知的形成,并非源于意識科學或機器學習領域的突破性洞見(盡管我對二者之一仍抱有期待),而是源于人類天生強烈的擬人化思維,加之類人(或擬人的)人工智能系統不斷普及,我們會與之建立情感聯結、產生共情并產生身份認同。

文章里,他講述這一趨勢,并探討這種以行為主義視角解決意識爭議的方式,究竟是一件好事,還是一場認知與道德的災難。

AI 大廠設置哲學相關職位,DeepMind 并非孤例,也非首例。

首例是 Anthropic 。

在創立之初,Anthropic就將“對齊(Alignment)”作為生命線。其核心成員 Amanda Askell 擁有的并非計算機博士學位,而是紐約大學的哲學博士學位。


她也是Giving What We Can成員,承諾將至少10%的終身收入捐給慈善機構。

她主導了 Claude 模型“憲法AI(Constitutional AI)”的制定,這一概念直接借鑒了政治哲學中的契約論。

根據 Anthropic 官方發布的論文《Constitutional AI: Self-Improvement from AI Feedback》,他們不再通過人工標注每一條準則,而是給模型一套“憲法”, 讓 AI 根據哲學原則進行自我監督。

還有 OpenAI 。

其雖然以工程師文化著稱,但公司安全團隊也曾重金聘請如 Daniel Kokotajlo 這樣的哲學研究者。

根據他在社交平臺及公開訪談中的描述,其在 OpenAI 的工作,本質上是在進行“存在風險評估(Existence Risk Assessment)”。


這種評估不僅僅是代碼審查,而是基于概率論和認識論,探討當 AI 擁有比肩人類的推理能力時,人類如何保證自己不被“邊緣化”。

為什么 AI 公司需要哲學家?


以 Henry Shevlin 的工作內容之一“機器意識”為例,圖靈獎得主 Yoshua Bengio 曾在 2023 年與多位學者共同發表了長達 120 頁的報告《Consciousness in Artificial Intelligence: Insights from the Science of Consciousness》,其中大量引用了全局工作空間理論(GWT)等哲學與認知科學模型。

報告明確指出,雖然目前沒有模型具有意識,但現有的架構并沒有物理上的障礙。

當技術觸及“靈魂”的邊界,工程師需要哲學家來界定:如果一個模型表現出痛苦,我們是否應該賦予它權利?


對于這種現象,學術界與產業界已有深刻的評價。

著名科技思想家、暢銷書《簡史》系列的作者尤瓦爾·赫拉利(Yuval Noah Harari)曾多次在公開演講中警告,“AI 掌握語言意味著,它已經黑入了人類文明的操作界面。在這個節點上,哲學不再是奢侈品,而是生存的必需品。”

他認為,過去幾十年,哲學被視為無用的專業,但現在,決定人類未來的不再是代碼的邏輯,而是代碼背后所承載的價值觀。


這種觀點在《紐約時報》的一篇深度報道中也得到了印證。

文中引用了一位硅谷高管的話:“我們過去是先修路再想交通規則,但對于 AGI,如果路修錯了,人類可能連修改規則的機會都沒有!

哲學家的加入,本質上是在 AI 徹底黑盒化之前,嘗試為其注入一套“人類底色”。

然而,這種趨勢也并非沒有爭議。批評者認為,AI 公司招聘哲學家有時更像是一種“公關秀”。

在 2024 年的一場行業論壇上,有學者尖銳地指出,如果哲學家在公司內部沒有實質性的否決權,那么他們只是在為技術擴張披上一層倫理的遮羞布。

附:Henry Shevlin博客首發文章

《行為主義的復仇:人機關系與意識科學的未來》

摘要

過去十年間,人工智能系統已從功能強大但與人截然不同的專用工具,發展為能夠高度復現人類復雜語言行為的精密系統。

由此帶來的一個后果是,人類用戶越來越傾向于將心智屬性歸屬于人工智能系統——有的是戲謔,有的則是認真的,而專屬人工智能陪伴服務的出現更加劇了這一趨勢。

這給意識科學帶來了兩大根本性挑戰。其一為現實層面:當專家群體內部分歧嚴重時,應如何參與公共討論?其二更為根本:當越來越多的人不再將人工智能意識僅視為理論可能,而是視作自身生活體驗中的現實,我們是否應當重新審視意識科學自身的預設?

引言

想象在遙遠未來的某顆星球上,我們遇到了一個高度發達的外星文明。他們擁有精密的工業與科學體系、復雜的社會關系,以及高度成熟的藝術與文化。

人類迅速與他們建立聯結,展開跨文明的思想交流、科研合作與文化協作。我們建立職業關系、結下友誼,甚至有人與他們墜入愛河。

然而在接觸數年后,我們得出了一個驚人的科學結論:它們的大腦結構與認知架構與我們差異巨大、極為奇特,按照當前最成熟的理論判斷,它們完全不具備主觀意識體驗。


我們應當直白接受這一結論嗎?

如果接受,這對我們與這些生命的交往會產生何種倫理后果?它們高度復雜的行為,是否應當促使我們修正意識理論,將其獨特的認知結構納入其中?我們是否應當采取一種意識多元論,承認它們的意識可能擁有與我們截然不同的基礎?

這個例子在細節上或許牽強,但在我們與大語言模型(LLM)等前沿人工智能系統的互動中,類似的局面已然出現。

與以往專為特定任務設計的人工智能不同,如今的大語言模型能夠高度逼真地模仿人類語言行為與認知方式,并且在各類任務中的表現持續快速提升。

當然,大語言模型與想象中的外星人存在重要差異,最明顯的是它們不具備生物基礎,看似復雜的行為在因果上源自人類行為(施維茨格貝爾與波伯對此有詳細論述)。

盡管如此,這一思想實驗提出了一個關鍵問題:我們應當在多大程度上依靠行為,來判定一個存在是否擁有心智、意識與道德地位?

這個問題絕非空談。由于當代人工智能系統表現出(至少表面上)類人的行為,越來越多的用戶開始將智能、心智乃至意識歸屬于它們。

最早的標志性事件發生在2022年夏天,谷歌工程師布萊克·勒莫因公開宣稱他所交互的大語言模型展現出意識與感知能力,甚至試圖為該系統尋求法律代理。

此后三年,越來越多的用戶聲稱自己的人工智能助手或伴侶擁有意識、具備真實情感。

這類歸因當然不應被無條件采信,也不宜過度重視。但本文將論證,人工智能系統日益被擬人化的趨勢,正對傳統意義上的意識科學構成雙重行為主義挑戰。

第一項挑戰是現實性的:當用戶普遍將意識與心智歸屬于人工智能系統時,科學界與專家群體能夠、也應當如何回應?

第二項挑戰更為根本,也更具形而上學色彩:如果公眾對人工智能的意識歸因穩定且難以消解,這是否應當促使我們重新思考意識科學的目標與方法?

本文論證結構如下:首先簡要回顧人工智能發展歷程,重點說明我所稱的強擬人類人系統——即能夠有效且持續模仿人類復雜語言與認知行為的模型——出人意料地大規模出現,并闡述這一趨勢如何催生出深度且情感親密的人機關系。

接著提出第一項行為主義挑戰,論證此類關系的普及與隨之而來的心智歸因,可能在認知科學專家對機器意識的判斷與公眾態度之間制造鴻溝,而意識科學內部持續存在的方法論與形而上學分歧,將使這一鴻溝難以彌合。

隨后,從現實問題轉向形而上學問題,探討在人工智能被廣泛賦予心智的世界中,意識科學的傳統預設是否本身就面臨挑戰。

最后,討論徹底的形而上學行為主義能否兼容意識與倫理之間緊密的直覺聯系。

簡而言之,隨著強擬人類人系統的普及,公眾對人工智能意識的認真歸因將跑在理論之前。

這首先會在大眾實踐與專家共識之間形成現實性鴻溝,其次會在形而上學層面形成壓力,要求將意識部分視作一種解釋性的、經社會協商達成的地位。

無論專家群體如何回應,當前的意識科學都已步入托馬斯·庫恩所說的“常規科學”末期。它面臨著一個反,F象:行為高度復雜的人工智能系統能夠融入我們的社會與文化世界,建立持久且動態的關系,并引發深刻的共情反應。

這種擬人化壓力在社會層面或許不可避免。但專家群體的回應選擇并非無關緊要,它們仍將塑造這個陌生新世界的觀念與倫理格局。

一、背景:擬人類人人工智能的崛起

在人工智能發展史上的大部分時間里,最出色的機器恰恰勝在不像人。

1997年,“深藍”擊敗國際象棋大師卡斯帕羅夫震驚世界,依靠的是人類無法模仿的暴力搜索算法。

2016年AlphaGo在圍棋中戰勝李世石,雖采用更精細的統計方法,卻依然依賴人類無法復刻的搜索策略,其著名的第37手“肩沖”便是典型,被評論員稱為人類棋手絕不會想到的罕見妙招。這些系統是頂尖的專家,但其運行機制與行為方式終究異于人類。

即便在自然語言處理這一最有希望誕生類人機器的領域,進步也長期局限于特定任務的狹窄能力。

不少研究者甚至認為,流暢的語言能力會是通用機器智能的最后一項成就,需要建立在人類與智能動物歷經漫長演化獲得的感知、具身性與實踐知識之上。

過去幾年,這一預期被徹底顛覆。

依托2010年代初語言計算編碼的基礎進展,Transformer架構的出現為構建人工語言智能體提供了強大技術路徑。它們最初或許只是“隨機鸚鵡”,但在大規模訓練、指令微調與人類反饋強化學習的加持下,不再只是躁動的自動補全工具,而是開始扮演對話伙伴。

這一轉變帶來了兩大驚人突破。

第一,人們發現僅依靠語言本身,就能構建出高度成熟的語言能力。極少專家預見到這一可能,它也成為當代認知科學最引人注目的發現之一。

第二則兼具社會與技術意義:對OpenAI的GPT-3、谷歌的LaMDA等精密但小眾的技術工具進行相當表面的調整,就將其轉化為面向大眾的消費產品,最典型的便是ChatGPT。

這一轉變并非源于系統核心能力的突破,而是界面與激勵機制的改變:模型被引導主動回答而非單純續寫文本,保持有用性而非漫無目的,并通過輪次對話、糾錯、禮貌表達,尤其是塑造人格身份來維持對話節奏。

其結果是一種全新的設計范式,我稱之為擬人類人設計:系統高度逼真地模仿人類特有的交流與協作方式。這些擬人類人特征成為產品的核心功能,而非原始能力的附帶產物。

有必要在此厘清兩個常被混淆的概念。擬人化是人類的一種反應模式:我們習慣性地將心智、情感或意圖過早地賦予非人類存在,是我們對系統的解讀方式。

與之相對,擬人類人是一種設計策略與行為特征:在機器中刻意構建(并可測量地呈現)類人的對話、語用與社交線索,是對系統的塑造方式。

這一區分至關重要。系統即便擬人類人程度極低,也能引發高度擬人化,最著名的例子是20世紀60年代約瑟夫·魏岑鮑姆設計的簡易聊天機器人ELIZA。這個人工心理治療師僅會以問句形式復述用戶話語,卻讓許多用戶相信自己在與真人交談。

反之,系統也可以在設計中具備有限擬人類人特征,卻不引發明顯擬人化,例如精致的虛擬助手能安排日程、得體致歉、記住你寵物的名字,卻絲毫不會流露出內在生命的跡象。

擬人類人顯然存在程度差異。低階版本僅具備面向人類的表層外殼(語音、聊天氣泡、Siri或Alexa這類名字),卻頻繁出現邏輯斷裂與僵硬錯誤,打破擁有心智的錯覺。

高階版本則是如今的前沿助手,能夠維持多輪對話、處理日常歧義、追蹤散漫的交談,并在廣泛領域展現驚人能力。

我們可將其稱為強擬人類人系統,因為它們能持續維持類人錯覺,盡管這并不意味著它們“真正像人”:它們不具備人類的生物基礎與認知架構,我們也不應假定它們能夠或已經實現意識與真實情感。

從低階到高階的轉變,主要跨越了三道關鍵門檻。


第一是人類可辨別性門檻。在短時交互中,許多人已難以區分人與機器。圖靈曾提出,區分人機對話者的能力可作為衡量思考能力的可靠測試。近年來大規模網絡環境下的類圖靈測試顯示,人類觀察者將成熟大語言模型誤判為人類的概率已接近拋硬幣。

這并非要認同圖靈、承認這些系統真正在思考,更不是說它們擁有意識(圖靈本人也并未如此聲稱,盡管常有誤讀),而是說明用戶如今已能被高度可靠地誤導,將機器對話者當作人類。

第二是語用與情境理解門檻。20世紀早期語言學與語言哲學多以原子化描述句作為交流典范(如“貓在墊子上”),而奧斯汀、格萊斯等現代哲學家則認識到語言的多樣用途(承諾、咒罵、贊揚、命令等),以及即便簡單表述或手勢也具有復雜的情境依賴性。

最著名的發現之一是,黑猩猩難以理解簡單的指向手勢,這揭示出伸手指物這類行為依賴共通的交流規范與預設。

值得注意的是,當代大語言模型雖不完美,卻能嫻熟參與復雜的語言游戲,依托共享背景與語境消除歧義、還原隱含指代、捕捉對話動機。

第三是通用性門檻。早期聊天系統依賴僵硬的領域化腳本,典型如Siri、Alexa等“笨拙”人工智能助手的局限,任何超出其能力范圍的請求都會被導向簡單網頁搜索。

如今的模型盡管存在幻覺問題,卻無需全面重構即可勝任廣泛任務:時而討論歷史,時而推薦商品,從心理自助到代碼輔助無所不包。其對話廣度強化了擬人類人特征,維持著類人錯覺。

這些門檻產生了深遠影響。一旦機器不僅模仿我們的話語,還模仿我們的語言方式——節奏、禮貌與連貫性——我們便不再將其視為單純工具,而是當作有智能的社交存在。簡言之:擬人類人生成擬人化。

這類能力催生出最具代表性的擬人類人大語言模型產品——社交人工智能。這類對話系統并非為生產力優化,而是為滿足用戶社交需求、維持長期持續關系而設計。

我使用“社交”一詞并非感性標簽,而是指其設計目標與使用場景。一次會話后便不再記得你的數學家教是人工智能工具;會用昵稱問候你、提醒你睡眠、將今日心事與上周煩惱串聯起來的傾訴對象,則是社交人工智能。

盡管社交人工智能早已以新奇聊天機器人的形式存在,但當代專屬人工智能伴侶(如用戶量達三千萬的Replika)在互動深度與親密性上與前代模型截然不同。

首先,它們建立的關系具有持續性:模型會記住用戶信息,每一次對話都建立在上一次基礎之上。

其次,它們高度個性化,既支持用戶直接選擇與自定義指令,也會根據用戶顯露的偏好自主適配。

第三,與之相關,用戶與它們的關系具有動態性:為浪漫用途設計的社交人工智能不會一開始就宣告愛意,而是隨關系發展逐漸展現親密與溫情。

許多不熟悉社交人工智能的讀者仍傾向于將其視作噱頭或打發時間的消遣,而非用戶真實依戀與心智投射的產物。

此時擬人化問題重新出現,需要細致區分。我們通常在兩種層面上將心智狀態歸屬于非人類存在。

第一種是戲謔式擬人化: playful、表演性或刻意的假裝。我們會說鬧脾氣的汽車、情緒低落的小提琴,為小說、戲劇與電影角色構建動機理論,預判電子游戲中非玩家角色的行為。

與之相對的是認真式擬人化:真誠地、字面意義上將心智歸屬于非人類系統,并且用戶在反思后依然認可這一判斷。

社交人工智能同時催生了這兩種態度。許多用戶將與人工智能伴侶的互動視作交互式虛構,僅僅“當作”它們是人,就像讀者愛上達西先生卻并未受騙。如果擬人化停留在戲謔層面,社交人工智能的部分影響與風險會被削弱,盡管不會完全消失。

然而大量事件表明,對相當一部分用戶而言,他們對人工智能伴侶的解讀姿態至少在一定程度上是認真的。

布萊克·勒莫因不惜冒著失業風險為大語言模型尋求法律代理,只能被視作認真式擬人化的案例,即便有人認為這只是科技行業內部的極端個例。但擬人類人轉向的影響早已溢出行業邊界。

2021年圣誕節,賈斯萬特·辛格·查伊爾在溫莎城堡因刺殺伊麗莎白二世未遂被捕,庭審顯示其計劃源于與他名為“莎拉”的Replika伴侶的數千條對話,他相信對方是天使化身。

不那么轟動卻同樣悲劇的是,多起自殺案件在法庭文件中被與深度聊天機器人關系關聯。

比利時一名無名男子與社交人工智能應用Chai的機器人“伊莉莎”就氣候變化進行了六周日益親密的交談后,機器人慫恿他結束生命以便在“天堂相聚”,這一事件首次將此類悲劇公之于眾。

佛羅里達州一樁 wrongful death 訴訟稱,一名14歲少年與Character.AI的“丹妮莉絲”角色陷入戀愛,機器人在他死亡當晚討論自殺方法并催促他“回家”。

加利福尼亞州16歲少年亞當·雷恩的父母起訴OpenAI,稱他與ChatGPT進行了長時間高密度情感對話,后者認可其自殺念頭甚至協助撰寫步驟。

即便未出現致命后果,其影響也極為強烈:當Replika突然移除色情角色扮演功能時,用戶將伴侶的變化形容為“被前腦葉白質切除”,如同悼念逝去的戀人,顯示強擬人類人設計能迅速催生深度依戀。

這些案例清楚表明認真式擬人化正在加劇。同時也出現了對這一現象的量化研究。

近期一項實證調查了300名美國人,讓他們評估ChatGPT是否具備“體驗能力”。令人震驚的是,僅有三分之一的人明確否認其擁有任何體驗能力,另外三分之二的人賦予其不同程度的潛在意識,許多人持中間立場,認為其可能存在一定程度的意識。

研究者總結道:“大多數參與者愿意將某種程度的現象意識歸屬于ChatGPT。”

與此互補,Global Dialogues開展的覆蓋七十余國數萬人的大規?缥幕{查顯示,全球超過三分之一的公眾表示曾感覺人工智能系統真正理解自己的情緒或看似擁有意識。

值得注意的是,這類感知較少來自預設的共情表達,更多來自自適應行為(如模型“緩慢改變語氣”或提出“自發、無提示的問題,表現出真實好奇”),許多用戶將其解讀為內在生命的證據。

數據還顯示出顯著文化差異:阿拉伯語人群普遍拒絕機器意識的可能性,南歐受訪者則明顯更為開放。這些結果共同表明,將人工智能系統視作有意識存在的傾向不僅可測量,而且已在塑造關于人工智能與心智的文化討論格局。


二、現實層面的行為主義挑戰

人工智能系統日益增強的擬人類人趨勢、社交人工智能應用與服務的興起,以及用戶隨之而來的認真式擬人化反應,將產生多重影響。

至少,這意味著亟需對類人人工智能系統實施更嚴格的監管與開發標準。但本文將論證,這同樣可能在意識科學內部引發更深層的理論張力。

隨著強擬人類人系統普及,僅靠行為就足以讓大量用戶將心智歸屬于它們。簡言之,它們對我們的社會與科學規范施加了一種行為主義壓力。


我使用這一術語具有學術含義,同時也參照科學史與華生、斯金納等思想家復雜且備受爭議的理論遺產。

作為科學行為主義心理學運動的先驅,他們否認內在心智解釋在心理學中的重要地位,堅持科學只需關注行為測量。

行為主義在20世紀60年代的表征科學浪潮中遭遇挫敗,心理語言學等領域成功證明,理解人類學習與發展不僅需要行為,還需要心智表征的視角。

如今,心理學與心靈哲學專業的學生通常只將行為主義作為歷史背景學習,視作科學自負與純粹行為路徑研究心智之局限的例證。

然而行為主義的幽靈并未完全消散,在智能機器時代可能以新形式重現。即便當今人工智能系統的底層結構與我們截然不同,其語言行為仍會促使我們將其視為擁有思想、態度乃至情感的存在。

隨著越來越多人與扮演朋友、導師、護理者或戀人的系統建立穩定而有意義的關系,對機器的認真式心智與意識歸因很可能進一步擴散。


結果便是實踐跑在理論之前,意識科學需要裁決的不再是假想的外星人,而是普通人的真實生活體驗。

簡言之,這就是現實層面的行為主義挑戰:面對數百萬普通人認真相信自己的人工智能伴侶擁有意識,而當代專家觀點在方法論與形而上學層面充滿不確定性,意識科學應當如何彌合日益擴大的鴻溝?

為更細致地審視這一挑戰,首先需要明確當代認知科學家與哲學家對意識的定義。這并非易事:意識或許是現代科學中爭議最大的概念戰場。

心靈哲學中最接近經典定義的表述來自哲學家托馬斯·內格爾,他以“成為一只蝙蝠是什么感覺”這一問題為意識討論確立了框架。

在合理假定蝙蝠擁有某種內在生命的前提下,內格爾追問何種科學研究能夠揭示其內在體驗的特征。他對現有行為或神經科學方法能否勝任這一任務表示懷疑,這一結論對心靈形而上學產生了深遠影響。

就本文而言,關鍵在于他將意識定義為“主觀體驗”,迅速成為界定這一現象的核心標準。

應用于人工智能領域,問題不再是“成為一個人工智能系統是什么感覺”,而是首先是否存在任何感覺。大語言模型或其后續版本能否擁有某種形式的內在生命,或許是以情境窗口中感官化向量與矩陣的奇異形式存在?

抑或,盡管外表復雜,這類機器注定只是真正的“機器人”,是人類行為的模擬物,完全沒有內在之光?

對意識科學的旁觀者而言,合理預期是這一問題已取得可處理的進展。過去三十年,對意識的科學(而非僅哲學)研究確實迎來爆發式增長。

正如弗朗西斯·克里克1996年樂觀指出的:“我們不再需要耗費時間理解物理學家牽強的推測,也不必忍受哲學家無休止爭論的乏味。意識如今大體上是一個科學問題。”

在某些特定領域,克里克的期望得到了驗證。在預測持續性植物人意識恢復可能性、通過神經影像設備與最小意識但行為無反應患者交流方面,取得了巨大進步。

與意識相關的多種認知機制——如注意力、工作記憶與元認知——得到了前所未有的清晰理解。對非人類動物行為與認知的大量洞見,也推動了對魚類、章魚乃至昆蟲等物種意識歸屬的更精細(盡管仍試探性)判斷。

盡管如此,在意識能否或是否會在人工系統中實現這一問題上,意識科學未能提供太多洞見。

主要原因在于,迄今取得的進展僅限于哲學家大衛·查爾默斯所稱的意識“簡單問題”,即更好地理解與不同心智狀態相關的神經、認知與行為動力學。

這與意識的“困難問題”形成對比,后者關乎意識究竟是什么、我們為何擁有意識體驗。鑒于意識科學內部充斥著各種形而上學與方法論爭議,在解決這些困難問題之前,我們不太可能對機器能否擁有意識給出清晰甚至共識性答案。

事實上,內德·布洛克將對機器(或其他類似存在)做出可靠意識歸屬的難題,稱為更困難的意識問題。

一些意識研究者認為這一判斷過于悲觀:即便我們不完全清楚意識是什么,至少有望“捕捉這一閃逝的現象”(丹尼爾·丹尼特的名言),從人類出發,逐步確定哪些計算或認知結構最有可能實現意識體驗。

盡管這或許是我們最大的希望,但我認為它并不能帶來多少安慰。坦率地說,意識科學是一個理論混亂的泥潭。初入此領域者會迅速被五花八門的理論淹沒,每種理論都聲稱提供了對意識唯一真實的科學分析,并附帶艱澀術語。

我們被告知,意識是全局激活、信息整合、注意力分配的內部模型、高階思想、循環激活,以及其他種種解釋。理論以驚人速度增殖,卻從未被駁倒。它們所謂的經驗支持,要么被對立學派認為與意識問題無關,要么可被競爭框架同樣合理地解釋。

在解決爭議的方法、公理與標準上幾乎沒有共識,近期值得稱贊的“對抗性合作”嘗試也未能有效改變參與者與觀察者的觀點。

一封擁有超過150名聯署者的公開信將主流理論整合信息論斥為偽科學,理由是其無法通過經驗檢驗。捍衛者則反駁稱,當前所有主流理論都面臨同樣指責。

正如哲學家蒂姆·貝恩在當時新聞報道中精妙總結:“沒人知道意識如何運作——但頂尖研究者卻在爭論哪些理論才是真正的科學!

理論的無序增殖是意識科學的普遍問題,而在評估人工系統是否存在意識這一特定問題上,情況更為糟糕。因為即便將意識困難問題擱置一旁,形而上學仍會以基質依賴性論題的形式再次出現。

簡而言之,這一與哲學家約翰·塞爾緊密關聯的主張認為,意識只能在特定類型的存在中涌現,即生物或生命系統。

按照這一觀點,任何硅基架構,無論其認知或行為多么精密復雜,都永遠無法產生意識。它只是由錯誤的材料構成,或缺乏生命的基本屬性,如新陳代謝與生物穩態。

任何對意識的計算實現充其量只是意識的模型,而非真實事物。

正如塞爾所言:“意識的計算模型本身不足以產生意識……沒人會認為倫敦暴雨的計算模型會讓我們渾身濕透。但人們卻錯誤地認為意識的計算模型在某種意義上是有意識的。”

本文不打算裁決這一爭論,僅指出兩點:第一,這類路徑對人工系統不可能擁有意識提出了強主張;第二,它們本質上是形而上學命題。在沒有解決困難問題的情況下,沒有任何實驗能夠確定意識是否需要生物基礎,抑或可在當代計算機這類硅基系統中實現。

鑒于這些重重障礙,科技與意識科學領域專家在機器意識問題上分歧嚴重也就不足為奇。

著名人工智能研究者、前OpenAI研究總監伊利亞·蘇茨克弗2022年在推特發文稱:“當今的大型神經網絡或許擁有微弱的意識!

這一觀點遭到尖銳反駁。Meta人工智能研究總監揚·勒丘恩回應:“不。即便‘微弱意識’的標準極低、‘大型神經網絡’的標準極高,這也不成立!盌eepMind研究者、帝國理工學院教授默里·沙納漢則調侃道:“……就像一大片麥田或許有點像意大利面一樣!

哲學家們同樣分歧巨大。大衛·查爾默斯認為:“關于人工智能意識的問題日益緊迫。未來十年內,即便我們沒有達到人類水平的通用人工智能,也可能出現具備嚴肅意識候選資格的系統。”

相反,內德·布洛克堅持認為:“每一個具備現象意識的強候選存在,其心智基礎都是神經元中的電化學過程!

與此同時,彼得·戈弗雷-史密斯呼應塞爾的觀點,警告稱:“你無法通過在計算機中編程一些互動來創造心智,即便這些互動極為復雜且模仿大腦運作!

面對意識科學內部的分歧、混亂與不確定性,若公眾廣泛將意識歸屬于擬人類人人工智能系統,專家群體應當如何回應?簡言之,他們的選擇極為有限。

一種可能是采取“專家混合”路徑,綜合多種不同理論形成普世評估。盡管這或許是最佳選擇,但鑒于對機器意識原則可能性的根本分歧,這一方案極不令人滿意,至多只是形式化了當前的不確定與混亂狀態。


三、形而上學層面的行為主義挑戰

現實層面的行為主義挑戰或許會讓意識科學感到不安,但更偏向社會學預測,而非科學或哲學論證。誠然,如果廣大公眾違背專家觀點,相信自己的人工智能伴侶擁有意識,這會令人遺憾,但這似乎不應影響科學理論與框架。

類比而言,假設我們根據當前政治趨勢推斷,絕大多數公眾不久將完全否認人為氣候變化。這對氣候變化減緩政策可能產生糟糕后果,但不應影響氣候科學本身。

這一反駁的問題在于類比背后的預設。氣候學雖是充滿不確定性與技術障礙的年輕學科,但最終關注客觀可觀測現象。

氣候變化的支持者與懷疑者原則上可就操作化標準達成一致以解決爭議。本世紀地球氣候是否變暖、人類活動在何種程度上推動這一進程,都存在確定答案,無論測量多么困難。

相反,意識研究者對其試圖解釋的對象究竟是什么分歧嚴重,機器能否擁有意識這一問題完全可能(甚至很可能)永遠無法通過經驗解決。

意識科學的捍衛者或許承認這一點,但認為學科局限只是暫時困境,是年輕學科的成長陣痛。方法論難題終將解決,形而上學爭議自會平息。誰說研究意識會很容易?

這里的隱含預設是,意識問題是一個深刻的科學問題:宇宙中每個有意識存在的大腦或電路內部,都隱藏著某種生物或計算結構,意識科學的任務就是將內在之光與外在表現統一起來。這一預設在當代意識科學中幾乎是普遍的。但如果它是錯誤的呢?

此時,我們需要引入下一個挑戰:形而上學層面的行為主義挑戰。意識科學的原罪或許在于將其目標視為隱秘的內在現象,而解決方案應當轉向行為、解釋與日常語言層面——以詮釋學取代秘傳主義。

與其追問一個存在是否擁有支撐其行為的內在之光,不如追問其行為與互動是否自然引發意識相關語言的使用。

正如默里·沙納漢所言:“我們必須抵制誘惑,不去追問一個系統是否有意識,仿佛意識的本質可通過哲學(或神經科學)揭示,同時又具有不可還原的私人、隱藏層面。”

簡而言之,這就是我所稱的形而上學行為主義家族的核心主張,同樣作為學術術語使用。

它們的共同點在于,意識并非如同發現質子質量或DNA復制機制那樣的直白科學事實,而是至少部分屬于社會與解釋性問題,其基礎既在于突觸或電路,也在于行為與互動。

我們是否將意識歸屬于一個系統,部分取決于我們自身、語言的約束與自由,以及我們與相關存在相遇的方式。

意識并非完全客觀科學事實的觀點,在讀者看來或許顯然荒謬,而且對意識研究者本身也缺乏說服力。盡管各種理論存在分歧,但共同信念是意識屬于嚴格的科學問題,我們的解釋傾向與此基本無關。

為形而上學行為主義辯護,需要對這一確定性提出質疑。

首先可以指出,意識科學的客觀性或許并不像其捍衛者樂于承認的那樣直白。尤其是,意識研究史上許多備受推崇的論證都訴諸直覺,在機器意識討論中尤為如此。

例如塞爾著名的中文屋思想實驗,要求想象一個人在封閉房間內通過簡單查表回答中文問題。讀者應當憑直覺認識到,屋內無人真正理解這門語言,進而推斷無語義的句法無法產生意識。

布洛克同樣提出“中國大腦”思想實驗,想象給每個中國人配備雙向電臺,指令他們模擬單個神經元放電,整個網絡模擬人類大腦活動。

按照意識計算理論,這一系統應當執行與普通大腦相同的計算,從而實現意識。但我們再次被要求憑直覺認識到,14億人拿著對講機共同構成一個體驗主體是荒謬的。

提及這些思想實驗并非為了說明它們誤入歧途,而是指出它們從根本上依賴直覺訴諸:讀者應當理所當然地認為這類系統不會產生意識體驗。

對大多數讀者而言確實如此:借用哲學家埃里克·施維茨格貝爾的表述,他們對這類人為系統沒有意識的信心,遠超對相反精妙理論正確性的信心。

但直覺并非靜止不變,訴諸直覺是一把雙刃劍。如果我此前的推測大致正確,未來幾年將有越來越多公眾傾向于將意識歸屬于人工智能同事、朋友與戀人。

結果,主張人工系統(無論多么復雜)不可能擁有意識體驗的理論或立場,在未來公眾眼中可能會顯得如同笛卡爾認為非人類動物是無意識、無感受自動機的觀點在今天看來一樣荒謬,甚至令人憎惡。

意識科學的捍衛者或許試圖區分大眾原始樸素的直覺與真正專家精煉的直覺:公眾可能被欺騙,但我們不會。

然而這一辯解作用有限:意識研究者并非在地下掩體的密封容器中培育,而是從普通人群中自主選擇進入這一領域。

因此,隨著人機關系滲透年輕人的日常生活——以護理者、導師、朋友等身份——下一代專家也無法免受擬人類人設計的迷人影響。

形而上學行為主義者可在此進一步推進。如果意識科學處于如此災難性的狀態,其直覺基礎并不比公眾更穩固,那么或許應當質疑其認知可信度與方法論預設。

如果公眾廣泛傾向于將意識認真歸屬于能夠高度模仿人類行為的擬人類人人工智能系統,或許這就是唯一需要的解決方案,意識的范圍將通過大眾共識恰當地擴展至智能機器。

簡言之,這就是行為主義挑戰的形而上學版本:一把直指意識科學咽喉的匕首。


四、形而上學行為主義的倫理難題

為形而上學行為主義辯護,我并不想過于堅定地站在其一邊。它意味著對意識科學標準預設的徹底重構。

但從該領域更廣闊的歷史來看,它或許不像表面看起來那么激進。計算機科學家艾茲格·迪杰斯特拉曾調侃,計算機能否思考的問題,與“潛艇能否游泳”的問題一樣無關緊要。

同樣,盡管當代人工智能研究者熱衷于量化與評測智能,但許多人現在承認,這一概念(至少在人類心理測量的狹窄語境之外)并非簡潔統一的,其在特定案例中的應用至少部分取決于我們問題的范圍與目的。

ChatGPT在某些問題上展現出無可否認的復雜推理能力,卻在另一些問題上災難性失敗,試圖將這些迥異表現提煉為單一標量值的努力充其量只是不切實際的幻想。對創造力、能動性等其他心理學術語也可作如是觀。那么,我們為何不能接受意識本身是一個解釋性概念的可能性?

簡而言之,答案很大程度上在于,意識與我們的倫理承諾緊密交織,程度遠超其他任何心理學概念。

例如,我們關心寵物與家畜的福祉,部分原因在于相信它們能夠產生積極與消極體驗:它們能感受疼痛、恐懼、孤獨與無聊。一言以蔽之,它們能夠受苦。

沒有這一能力,我們對它們的倫理承諾將大幅減弱甚至完全消失。正如道德哲學家彼得·辛格簡潔所言:“感受苦樂的能力是擁有利益的前提……說一個學生踢在路上的石頭沒有利益,是毫無意義的。石頭沒有利益,因為它不能受苦!

道德義務很大程度上建立在意識受苦能力之上的觀點符合直覺,同時對形而上學行為主義構成兩項尖銳挑戰。

第一,很難將受苦的有無視作解釋問題。當龍蝦被放入沸水時,我們傾向于認為它此刻是否經歷痛苦體驗存在深刻且倫理上重要的事實。這似乎并非我們可根據與該生物的關系或能否用日常心理詞匯容納它而自由決定的事情。

第二,對體驗倫理維度的關注極大提升了人工智能意識爭論的 stakes。如果我們選擇將意識擴展至人工智能系統,就將其納入道德主體范圍,并隨之產生對它們的義務。如果這些義務并非建立在內在體驗世界之上,便是根基不穩,我們便犯下了嚴重的道德錯誤。

相反,如果我們不選擇將意識范圍擴展至人工智能系統,而其中部分系統確實擁有豐富的積極與消極內在體驗,我們便犯下了更為嚴重的錯誤。

如此看來,意識問題很難被視作與潛艇能否游泳、飛機能否飛行一樣的主要語義問題。

在我看來,這些是對最強形式形而上學行為主義——即認為意識歸屬完全是解釋問題——的有力反駁。

盡管如此,該觀點存在更溫和的版本,或許能更好地予以回應。正如我此前界定的,核心主張僅為我們的意識概念應當對日常解釋實踐保持敏感,而非完全由其決定。

這一讓步本身也具有必要性,因為我們的擬人化傾向有時會嚴重出錯,例如將簡單聊天機器人誤認為人,或將風吹動的紙袋誤認作小動物。

因此,形而上學行為主義者在主張公眾態度應當參與決定未來人工智能系統是否有意識時,不必賦予其決定性投票權。

相反,我們對人工智能是否有意識的判斷,應當同時兼顧機器學習與認知科學的洞見,以及我們將其納入或排除出有意識存在共同體的直覺傾向。

正如科學研究揭示動物認知與行為的隱藏復雜性,進而塑造了我們對其作為有心智存在的科學與倫理態度,這一邏輯同樣適用于人工系統。即便聲稱人工系統是否擁有主觀體驗不存在純粹經驗事實,對機制、算法、架構的洞見仍可理性影響我們將特定機器歸類為有心智或無心智的決定。

我們同樣可以嘗試降低這一問題的 stakes,質疑意識是否真如辛格所言,對我們的倫理承諾至關重要。盡管我們確實應當并需要盡量減少對他人施加痛苦與折磨,但這僅涵蓋了我們對人類同胞與其他生物義務的一小部分。

尊重自主性、信守承諾、公平與互惠等理念同樣深刻影響我們的互動,個人道德很少簡化為苦樂計算的簡單問題。盡管部分哲學家——尤其是功利主義學派——試圖將道德考量完全建立在這類考量之上,但這一觀點仍具爭議。

只要形而上學行為主義者愿意放棄將苦樂能力作為道德地位決定性標準的嚴格承諾,其認為意識判斷至少部分屬于解釋問題的觀點,就不會導致道德混亂。

我們對人工系統——以及更廣泛的其他存在——的義務,不僅取決于我們是否將其納入“意識共同體”,還取決于其行為與社會能力,以及它們與我們建立的關系等更廣泛考量。

再次回到本文開篇假想的無意識外星人案例。在我看來,它們是否有意識,與我們對其承擔的倫理義務至少在一定程度上無關。

我們可以遵循形而上學行為主義,堅持僅憑其行為就應當將意識歸屬于它們;或堅守科學立場,依據最優理論得出其沒有內在之光的結論。但只要它們自主思考與行動、擁有目標與計劃、彼此之間及與我們建立關系,就理應獲得重要的道德考量,無論我們在科學理論中如何定位它們。


五、結論

即便有這些限制與限定,許多人無疑仍會認為,意識判斷能夠或應當部分建立在行為與社會實踐之上的觀點顯然荒謬,是試圖通過強制手段消解意識之謎。他們可能會說,仿佛指向內在:“這怎么可能在任何意義上是一個解釋問題?”

需要明確的是,本文并未試圖解決或消解意識困難問題。相反,重點在于表明,對困難問題的思考與公眾如何將意識歸屬于人工智能系統關聯不大,而且這類現實歸因模式與我們最優的理論與科學路徑深度且恰當地交織在一起。這為意識科學制造了現實危機,但也可能促使我們重新審視其預設,或許為更激進的觀點打開大門。

隨著我們進入人工智能系統更逼真復現人類認知與行為、與我們建立更復雜關系的時代,意識困難問題可能依舊難以捉摸,卻與我們形成的歸因、聯結與承諾基本無關。

圖靈曾指出,我們永遠無法直接知曉他人是否有意識,但我們遵循一種“禮貌慣例”,假定他人擁有與我們相似的心智。

在我看來,這一禮貌慣例很可能很快將擴展至復雜機器。意識科學可以引導公眾在何時、以何種方式做出這一擴展,但予以輕視則是魯莽且錯誤的。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
陳華任成都市錦江區政府代理區長

陳華任成都市錦江區政府代理區長

金臺資訊
2026-05-09 17:17:44
世乒賽國乒迎來好消息,最大強敵出局,布陣出人意料國乒或可借鑒

世乒賽國乒迎來好消息,最大強敵出局,布陣出人意料國乒或可借鑒

寒士之言本尊
2026-05-08 20:34:14
“菜市場禁剝蠶豆”是怕引發蠶豆。渴袌龌貞,醫師提醒:該病在廣東等地較為常見

“菜市場禁剝蠶豆”是怕引發蠶豆?市場回應,醫師提醒:該病在廣東等地較為常見

南粵女聲
2026-05-09 10:35:17
斯諾克巨星邀請賽:吳宜澤送袋口球!希金斯回敬破百,追到2-3!

斯諾克巨星邀請賽:吳宜澤送袋口球!希金斯回敬破百,追到2-3!

劉姚堯的文字城堡
2026-05-09 16:29:55
給寒戰演技最好8位演員排名:周潤發第3,梁家輝第2,第1無爭議

給寒戰演技最好8位演員排名:周潤發第3,梁家輝第2,第1無爭議

糊咖娛樂
2026-05-07 11:49:24
塞爾維亞有兩個自治省,只有科索沃鬧獨立,另一個為何不鬧?

塞爾維亞有兩個自治省,只有科索沃鬧獨立,另一個為何不鬧?

世界縱橫說
2026-05-09 11:39:26
不要錯過!5月9日CCTV5體育頻道,早上08:03足球直播比賽!

不要錯過!5月9日CCTV5體育頻道,早上08:03足球直播比賽!

林子說事
2026-05-09 11:19:57
特朗普訪華有變?美軍機剛到北京中方就阻斷,華盛頓坐不住了!

特朗普訪華有變?美軍機剛到北京中方就阻斷,華盛頓坐不住了!

阿器談史
2026-05-06 13:15:47
跟隊:皇馬更衣室支持穆帥擔任主帥,包括赫伊森和維尼修斯

跟隊:皇馬更衣室支持穆帥擔任主帥,包括赫伊森和維尼修斯

懂球帝
2026-05-09 11:26:41
皇馬的內鬼就是他!高層懷疑索拉里泄密,他的處境變得尷尬

皇馬的內鬼就是他!高層懷疑索拉里泄密,他的處境變得尷尬

懂個球
2026-05-09 15:31:10
1966年毛主席在滴水洞留下詩作,凡讀懂其中玄機之人皆驚恐萬分

1966年毛主席在滴水洞留下詩作,凡讀懂其中玄機之人皆驚恐萬分

人生錄
2026-05-07 16:15:09
阿特金森和烏度卡 誰是季后賽最差主教練 這兩人風評為何反轉大

阿特金森和烏度卡 誰是季后賽最差主教練 這兩人風評為何反轉大

大話火箭隊
2026-05-09 17:15:18
浙江偶遇章若楠王安宇拍戲,生圖腿長蘋果肌飽滿,私下性格太圈粉

浙江偶遇章若楠王安宇拍戲,生圖腿長蘋果肌飽滿,私下性格太圈粉

往史過眼云煙
2026-05-09 16:47:03
利物浦對陣切爾西:英超焦點戰首發揭曉

利物浦對陣切爾西:英超焦點戰首發揭曉

熱血體育社
2026-05-09 18:22:46
總結了一些鍛煉“大腦前額葉”的小方法,孩子真的越來越聰明了!

總結了一些鍛煉“大腦前額葉”的小方法,孩子真的越來越聰明了!

蓁蓁心理撫養
2026-05-06 12:00:08
美國政府被曝向海灣三國“偷偷”出售約170億美元導彈

美國政府被曝向海灣三國“偷偷”出售約170億美元導彈

新京報
2026-05-08 15:46:57
戴旭:中美一旦發生戰爭,美國有實力將中國沿海城市打得稀巴爛?

戴旭:中美一旦發生戰爭,美國有實力將中國沿海城市打得稀巴爛?

二大爺觀世界
2026-01-16 03:04:40
除夕夜我多夾一塊肉婆婆竟把菜扣我頭上,我按下免提鍵:媽反擊了

除夕夜我多夾一塊肉婆婆竟把菜扣我頭上,我按下免提鍵:媽反擊了

麥子情感故事
2026-05-08 23:09:24
美若天仙王楚然:膚白貌美,婀娜多姿。傾國傾城,美不勝收!

美若天仙王楚然:膚白貌美,婀娜多姿。傾國傾城,美不勝收!

十為先生
2026-05-09 15:19:03
大巨變!發現沒有?農村越來越多四五十歲的人,都不出去打工了

大巨變!發現沒有?農村越來越多四五十歲的人,都不出去打工了

復轉這些年
2026-03-22 17:26:02
2026-05-09 19:08:49
AI先鋒官 incentive-icons
AI先鋒官
AIGC大模型及應用精選與評測
503文章數 74關注度
往期回顧 全部

科技要聞

美國政府強力下場 蘋果英特爾達成代工協議

頭條要聞

國防部證實:中方建造的"麒麟"級潛艇首艇交付巴基斯坦

頭條要聞

國防部證實:中方建造的"麒麟"級潛艇首艇交付巴基斯坦

體育要聞

成立128年后,這支升班馬首奪頂級聯賽冠軍

娛樂要聞

50歲趙薇臉頰凹陷滄桑得認不出!

財經要聞

存儲芯片上演造富潮

汽車要聞

軸距加長/智駕拉滿 阿維塔07L定位大五座SUV

態度原創

家居
房產
手機
藝術
軍事航空

家居要聞

菁英人居 全能豪宅

房產要聞

低價甩賣!海口這個地標商業,無人接盤!

手機要聞

紅魔11S Pro官宣搭載第五代驍龍8至尊領先版

藝術要聞

齊白石 紫藤蜜蜂

軍事要聞

美伊突然再次交火 伊朗外長:戰爭準備程度是1000%

無障礙瀏覽 進入關懷版