網易首頁 > 網易號 > 正文 申請入駐

萬物皆計算:重塑人類未來的五大底層邏輯

0
分享至


人類正處于一場范式革命之中。

范式轉變往往伴隨著陣痛。新觀念與舊世界觀相容時,人們欣然接受;而二者相悖時,人們便心生抵觸。地心說就是一個經典案例。該學說由托勒密(Ptolemy)的“本輪說”進一步完善,認為太陽、月亮、行星和恒星圍繞著靜止不動的地球運轉。這種認知既符合直覺又順應宗教傳統,曾被視為重大科學成就,主導了人類近2000年的宇宙觀。因此,哥白尼的“日心說”雖然是科學進步的標志,更是備受爭議的“異端邪說”。正如本杰明·布拉頓(Benjamin Bratton)所言,“日心說”之于某些人甚至造成了存在主義層面的精神創傷。如今,人工智能(AI)已再度掀起認知風暴。

本文將闡述五大范式轉變。它們互相關聯,共同影響著AI的發展:

  1. 自然計算——早在人類制造出第一臺“人工計算機”之前,計算就已然存在于自然界。將計算視為一種自然現象,不僅能推動計算機科學和AI迭代,還將促使物理學和生物學革新。

  2. 神經計算——人類大腦正是自然計算的絕佳典范。通過重構驅動AI的計算機系統,使其更接近大腦的工作機制,將大幅提升AI的能效水平,同時解鎖其潛能。

  3. 預測智能——大語言模型(LLM)的成功向我們揭示了智能的本質特征:它建立在不斷演進的知識、觀察和歷史反饋之上,是對未來(包括自身未來行為)的統計建模。這意味著,當前AI模型的設計、訓練與運行之間的界限只是暫時性的,更先進的AI將像人類一樣,以持續、互動的形式不斷進化、成長和學習。

  4. 通用智能——智能的實現未必需要基于生物的計算。AI模型仍將穩步升級,但它們現階段的能力已經相當全面,能夠處理日益多樣化的認知任務。其技能水平可以比肩人類個體,在某些情況下甚至更勝一籌。從這種意義上說,“通用人工智能”(AGI)或許已然到來,只是我們在反復更改衡量標準。

  5. 集體智能——人類大腦、AI智能體和社會系統都可以通過擴展規模而變得更強大,但僅有規模是不夠的。智能本質上是社會性的,由多個智能體的協作分工所驅動。這一認知促使我們重新思考人類(或“超越人類”)智能的本質,更指明了AI發展的新路徑:通過社會化智能集群與多智能體協同架構,可以降低計算成本、增加AI多樣性,并為AI安全議題提供新視角。

或許在AI時代,最大的“哥白尼式”沖擊則在于,我們可能將不得不接受非人類通用智能會如此般司空見慣。但要理解人類的“智能地心說”,首先必須重新審視計算的本質。因為計算不僅是AI的基礎,更是一切智能形式的根基。接下來,本文將就此展開論證。



?Blaise Agüera y Arcas(左)是Google副總裁兼研究員,技術與社會的首席技術官,也是智能范式團隊(Paradigms of Intelligence)的創始人。他的新書《何為智能》(What Is Intelligence?)于9月將由Antikythera和Mit Press發布。

James Manyika(右)是谷歌-字母表(Google-Alphabet)的高級副總裁,同時擔任谷歌研究、實驗室、技術與社會部門的總裁。他曾擔任美國國家人工智能咨詢委員會的副主席,以及聯合國秘書長人工智能咨詢機構的聯合主席。


自然計算

“計算機科學”算得上是一門科學嗎?通常來說,它更多地被視為一門工程學科,誕生于二戰時期的電子數字積分計算機(ENIAC)。ENIAC是人類歷史上第一臺完全可編程的通用電子計算機,也是你手中那部智能手機的遠祖。

不過,計算機理論的出現則更早于計算機工程。1936年,英國數學家艾倫·圖靈(Alan Turing)發表了一篇具有開創性的論文,介紹了現在被我們稱之為“圖靈機”的虛擬設備,它由一個可以在磁帶上左右移動的讀寫頭組成,可以根據一套規則讀取、擦除和寫入磁帶上的符號。只要賦予合適的規則,圖靈機就能按照磁帶上編碼的指令,即我們現在所說的計算機程序或代碼進行操作,從而使得這種“通用圖靈機”(UTM)能夠執行任意計算。反過來講,任何能由UTM完成的操作都屬于計算。1945年,ENIAC正式完工,成為世界上第一臺真正的UTM。

然而……事實或許并非如此。早在2014年,一小群在物理學和計算機科學領域都有深厚背景的非傳統研究人員,比如約克大學的蘇珊·斯蒂芬尼(Susan Stepney),就在《英國皇家學會學報A輯》(Proc. R. Soc. A)上提出,自然界中實際上充斥著計算系統,其中并沒有明確的人類計算機用戶。此外,20世紀物理學巨擘約翰·惠勒(John Wheeler)還曾經大力倡導過一種名為“萬物源于比特”(it from bit)的激進假說,該假說認為宇宙的基本結構是計算性的。在惠勒看來,我們視為物理的基本現象——夸克、電子、光子——都是底層計算的產物,就像互聯網數據包或圖像像素一樣。

或許在AI時代,最大的“哥白尼式”沖擊則在于,我們可能將不得不接受非人類通用智能會如此般司空見慣。

在量子力學的某些解釋中,這種計算發生在多重宇宙之中,展開而言,即大量相互糾纏的平行宇宙中同時進行著大量的計算。無論對基礎物理學作何解釋,量子計算這一實實在在的技術都利用了這種并行性,使某些計算能夠在幾分鐘內完成,而用當今最強大的超級計算機則需要數倍于宇宙壽命的運算時間。無論以何種標準衡量,這都是計算領域的一場范式變革。

“計算是物質的現實基礎”這一說法難以被證實抑或證偽,但早在惠勒提出“萬物源于比特”的假說之前,就出現過“自然界中存在計算”的明確案例。約翰·馮·諾依曼(John von Neumann)是一位杰出的數學物理學家,也是計算機科學的另一位奠基人,早在1951年就發現了計算與生物學之間的深刻聯系。

馮·諾依曼意識到,對于一個復雜的生物體來說,要實現自我復制,它必須包含構建自身的指令,以及讀取和執行這些指令“磁帶”的機器。“磁帶”本身也必須能夠復制,并包含構建讀取它的機器的指令。巧合的是,這種“通用構造器”的技術要求與通用圖靈機(UTM)的技術要求完全一致。令人驚訝的是,馮·諾依曼先于1953年在DNA的圖靈式磁帶樣結構和功能被發現之前就已經產生了這一洞見。

于是乎,馮·諾依曼證明了,生命究其本質是“計算性”的。這聽起來可能讓人感到匪夷所思,因為我們理所當然會認為計算機并沒有生命,而生物也絕不能算作計算機。但這是事實:DNA就是生命的代碼——盡管這種代碼難以逆向工程,又并非按線性順序執行。“計算”對于生物而言是必要的,這不僅是為了繁殖,還是為了發育、生長和修復。而基于此的對基礎生物系統進行編輯或編程,也正變得越來越有可能。


?左圖:艾倫·圖靈。右圖:圖靈模型的計算機模擬生成的模式。每個模式都基于相同的基本方程,只是參數略有調整。圖靈在他生命的盡頭寫下了他的第一篇也是最后一篇關于生物學和化學的論文,關于某種化學反應如何產生自然界中看到的許多模式。這篇名為《形態發生的化學基礎》(The Chemical Basis of Morphogenesis)的論文完全是理論性的。但在隨后的幾十年里,也就是圖靈于1954年悲慘地自殺很久之后,科學家們發現他的推測變成了現實。所謂的圖靈模式首先在培養皿中的化學物質中發現,然后在動物的條紋、螺旋和渦旋中大量出現。有些人認為圖靈模式實際上可以擴展到生態系統,甚至星系。

圖源:Shigeru Kondo 和 Takashi Miura for Science

圖靈同樣在理論生物學領域做出了開創性的貢獻,他描述了組織的生長和分化具體如何通過那些能夠感知和釋放他稱之為“形態發生素”(morphogen)的化學信號的細胞來實現——這是一種強大的模擬計算形式。和馮·諾依曼一樣,盡管圖靈從未真正踏足過生物學實驗室,卻同樣說中了要害。

圖靈和馮·諾依曼共同揭示了生物學的計算基礎,而這則為人工生命或“ALife”奠定了根基,這一領域至今仍鮮為人知且處于范式前階段——就像AI在不久前的情況一樣。

然而,完全有理由相信,ALife很快就會像AI那樣蓬勃發展。AI的真正進步,需要我們集結足夠的“人工”計算能力來模擬(或至少模仿)數十億個神經元的活動,以接近大腦的復雜性。而從零開始的ALife則需要走得更遠,重現地球上數十億年的進化歷程。這仍然是一項艱巨的任務,不過,我們并非毫無進展。


?Windows系統下的Brainfuck IDE示例. 圖源:softwarerecs.stackexchange.com

谷歌“智能范式”團隊近期開展的實驗表明,在一個能夠支持計算的模擬玩具宇宙中,我們可以從純粹的隨機狀態出發,讓最簡單的“生命形式”自發出現。其中一個實驗是從一堆隨機字符串“湯”開始,每個字符串長64字節。256種可能的字節值中有8種對應于20世紀90年代一種名為“Brainfuck”的極簡編程語言的指令。這些字節串可以被視為圖靈機的紙帶,而8條計算機指令則規定了圖靈機的基本操作。實驗過程是反復從“湯”中隨機抽取兩條紙帶,將它們拼接在一起,“運行”拼接后的紙帶,再將紙帶分開,放回“湯”中。起初,似乎沒什么特別的變化;我們看到的只是隨機的紙帶,偶爾會有一個字節被隨機修改。但在進行了幾百萬次這樣的交互之后,功能性的紙帶出現了,并開始自我復制:這就是最簡單的“人工生命”。

從某種程度上講,人工生命的出現宛如水結冰或沸騰時發生的相變。然而,常規物質的相態特征取決于其統計意義上的均勻性,例如,冰是有序的原子晶格,而氣體的原子位置則呈現隨機分布,液體則介于兩者之間。相比之下,生命物質則要復雜得多,其在每個尺度上都展現出多樣且有目的的結構。這是因為計算需要不同的功能部件協同工作,這一點在任何機器、生物體或程序中都顯而易見。

看著結構復雜、目的明確且功能完備的結構自雜亂無章的噪聲中逐漸涌現出來,這過程充滿神奇的魔力,但這絕非超自然或奇跡。數十億年前,地球上就曾發生過類似的生命從無到有的相變,我們也可以推測在其他適宜生命存在的行星或衛星上也發生過類似事件。

生命具有計算性,因為其穩定性取決于生長、自愈或繁殖;而計算本身也必須進化以支持這些基本功能。

那么,在一個隨機的環境中,生命的復雜性到底是如何產生的?更進一步地問,這種復雜性又是如何持續存在呢?答案是:任何具有自愈或繁殖能力的生命體都比無生命的惰性物質更“動態穩定”,因為生命體(或其后代)在未來仍會存在,而任何無生命的物質都會隨著時間的推移而退化,屈服于隨機性。生命是具有計算性的,因為其穩定性取決于生長、自愈或繁殖;而計算本身也必須進化以支持這些基本功能。

這種關于生命的計算視角,也為生命在進化過程中復雜度不斷增加的現象提供了新的見解。由于計算物質——包括生命本身——是由需要協同的不同部分組成的,進化將同時作用于各個部分和整體,這一過程在生物學中被稱為“多級選擇”(multilevel selection)。

通過這一機制,現有的組成部分(或完整的生物體)能夠反復組合,從而形成越來越龐大、越來越復雜的實體。主流觀點認為,在遠古時期的原始海床上,分子聚合形成了能夠自我復制或“自催化”的反應循環;這些化學循環與脂肪膜融合,形成了最早的細胞;細菌和古菌結合形成了真核細胞;這些復雜的細胞又組合在一起,形成了多細胞生物......每一次這樣的重大進化轉變都以功能性共生關系為特征,即一種相互依存的形式,在這種形式中,先前獨立的實體聯合起來,形成一個更大的整體。

進化階梯的最初幾級臺階,并不涉及具有可遺傳基因編碼的生命實體。然而,一旦這些聯合起來的實體具有生命并因此具備了計算能力,那么隨后的每一次組合都會增強共生整體的潛在計算能力。而在這一進化階梯的終點處,人類的智能水平已遠遠高于那些最早的生命形式,這源自于底層的約860億個神經元的協同運算,所有神經元相互并行著處理信息。


神經計算

計算機科學的先驅們早就深刻認識到,我們的大腦本質上就是一臺計算機。事實上,在20世紀40年代,計算機科學和神經科學這兩個新興領域之間幾乎沒有區別。電子計算機的開發初衷正是為了在工業規模上執行腦力勞動,就像上個世紀工廠機器的開發是為了實現體力勞動的自動化一樣。最初,重復性的腦力勞動由“人腦計算機”完成,就像電影《隱藏的人物》(hidden figures)中的女性,承擔了戰爭時期以及后來太空競賽所需的大量計算工作(但她們往往得不到認可,報酬也很低)。

因此,新型“人工”計算機的核心部件——構成電子電路的邏輯門,最初被構想為人工神經元。那些將計算機稱為“電子大腦”的記者們,并非那個年代的“標題黨”,他們真實描繪了計算機科學先驅們的雄心壯志。對于那些早期的計算機科學家來說,試圖復制任何形式的思維活動,都不過是順利成章的事了。

然而,那些雄心壯志很快便破滅了。一方面,數字計算機確實范圍明確的程序性任務上取得了巨大成功——通過編程,電子計算機能夠以低成本、零差錯、大規模的方式完成諸如火箭軌道計算和薪資核算之類的工作。另一方面,20世紀50年代的神經科學家卻發現,真正的神經元要比邏輯門復雜得多。

更糟糕的是,事實證明,編寫能夠執行最簡單日常人類功能(從視覺識別到基本的語言理解)的程序竟都無法實現,更不用說復雜推理、文學分析或藝術創作了。對于這些事情,我們(至今仍然)不知道該如何編寫精確的程序。這種注定失敗的嘗試如今被稱為“傳統AI”或GOFAI(Good Old-Fashioned AI)。我們本想制造出像HAL 9000那樣的智能體,結果得到的卻只是“預約,請按1;修改現有預約請按2”。

一種看似合理的解釋出現了,為GOFAI的失敗提供了理由:計算機不是大腦,大腦也不是計算機。任何相反的觀點都被認為是幼稚的,是“炒作”,或者最多只是個不恰當的比喻。或許,人類行為無法被編程這一想法多少讓人感到安心。在很大程度上,神經科學和計算機科學分道揚鑣了。

然而,“計算神經科學家”們繼續將大腦視為一種信息處理系統,盡管其設計與傳統電子計算機截然不同。大腦沒有中央處理器或單獨的存儲器,不會只按順序執行指令,也不使用二進制邏輯。不過,正如圖靈所證明的,計算具有通用性。只要有足夠的時間和內存,任何計算機,無論是生物的還是人工的,都能模擬任何其他計算機。事實上,多年來,神經科學家已經建立了越來越精確的生物神經元和神經網絡的計算模型。這些模型不僅包括最能體現神經活動特征的“全或無”脈沖或“動作電位”,還包括化學信號、基因表達、電場等現象的影響。

人類的智力水平已遠遠高于那些最早的生命形式,這源自于底層的約860億個神經元的協同運算,所有神經元相互并行著處理信息。

在此,有必要解釋一下“模型”(model)這個詞。在傳統用法中,模型絕非真實事物,比如火車模型或金融模型。它只是一張地圖,而非實際的地域。神經科學家在構建神經網絡模型時,通常也是秉持這種精神。他們試圖了解大腦的工作原理,而非探索如何賦予計算機思維能力。因此,他們的模型是高度簡化的。

然而,計算神經科學提醒我們,大腦也在忙于計算。因此,大腦的計算功能本身就是一個模型。所以,現實世界就是一張地圖——如果這張地圖和現實世界一樣大,它就等同于真實事物,就像一個全尺寸的模型鐵路一樣。換言之,如果我們能造出一個完全實現的大腦模型,它就能反過來對我們進行建模!

一方面,GOFAI經歷著屬于自己的反復興衰循環,而在另一方面,另一種關于如何讓計算機思考的“聯結主義”學派(connectionist)則始終存在著,且常常與計算神經科學相互聯動。聯結主義者放棄了基于程序員預設規則的符號邏輯,轉而擁抱“機器學習”方法,讓神經網絡從經驗中學習,類似于我們人類的學習方式。

盡管常常被GOFAI所掩蓋,但聯結主義者從未停止過嘗試讓人工神經網絡完成現實生活中的認知任務。在這些堅持不懈的人當中,有杰弗里·辛頓(Geoffrey Hinton)和約翰·霍普菲爾德(John Hopfield),他們因在機器學習方面的突出貢獻而獲得2024年諾貝爾物理學獎;還有許多該領域的先驅盡管他們的貢獻未得到廣泛認可,比如美國心理學家弗蘭克·羅森布拉特(Frank Rosenblatt)和詹姆斯·麥卡利蘭(James McClelland)以及日本計算機科學家福島邦彥(Kunihiko Fukushima)。不幸的是,20世紀的計算范式(至少直到90年代)對機器學習并不友好,這不僅是因為人們對神經網絡普遍持懷疑態度,還因為編程本質上是符號性的——計算機是為按順序執行指令而設計的,而這與神經計算并不契合;而在最初,這本只是一種設計選擇。

最初的邏輯門是用真空管制成的,這種真空管極不可靠且需要頻繁更換。為了使計算盡可能地穩健可靠,所有計算都自然而然地基于每個真空管可區分的最小“狀態”:“關”或“開”。由此形成了二進制系統,只使用0和1,恰好對應著布爾邏輯(Boolean logic)的“真”(或1)和“假”(或0)的基本符號基礎。

同理,構建“中央處理器”(CPU)也是采用最少數量的“易故障”真空管來逐條執行指令。這意味著要將處理單元與內存分離,并通過一根電纜或“總線”將數據和指令在存儲器和CPU之間串行傳輸。

這種“經典”的計算范式在很長一段時間內蓬勃發展,這得益于摩爾定律(Moore’s Law)——這是后來的芯片制造商英特爾的創始人戈登·摩爾(Gordon Moore)在1965年提出的一個著名觀點:微型化使芯片上的晶體管數量每一年或兩年就翻一番。隨著晶體管尺寸的縮小,它們的運算速度也呈指數級提升,成本大幅降低,耗電量也減少了。于是,龐大昂貴的大型機變成了小型機,然后是臺式機、筆記本電腦、手機,再到可穿戴設備。如今,計算機已經小到可以穿過一根注射器針頭。筆記本電腦和手機主要由電池和屏幕構成;這類設備中的實際計算機“片上系統”(SoC),面積僅約一平方厘米,厚度不到十分之一毫米——一滴水的體積都是其數倍。


?片上系統(SoC)示意圖. 圖源:ansys

盡管規模上的這一進步令人矚目,但它并沒有引領我們走向大腦。大腦既不微小也不快速,其運行速度遠比智能手表中的計算機要慢得多。然而,請記住,它同時擁有約860億個工作狀態下的神經元。這加起來就是極其龐大的計算量,而且由于其運行相對緩慢,并且使用本地存儲的信息,因此它非常節能。即便計算機的運行速度在不斷提升,人工神經計算的效率仍然不高,因為它們仍采用串行執行模式:根據需要從單獨的內存中讀寫數據。

直到英偉達等公司開始設計多處理器并行芯片,運行真正有意義的大規模神經網絡才成為可能。并行化在一定程度上是對摩爾定律原始形式逐漸失效的一種回應。盡管晶體管仍在不斷縮小,但自2006年左右起,處理器運行頻率已無法繼續提高,實際上限約為幾千兆赫茲(每秒數十億次時鐘周期)。

即便計算機的運行速度在不斷提升,人工神經計算的效率仍然不高,因為它們仍采用串行執行模式。

并行化意味著要改變編程模型,使其更傾向于使用短代碼片段(最初被稱為“像素著色器”,因為它們是為圖形設計的),以便能夠在多個處理器上同時執行。著色器(Shader)被證明非常適合并行化神經網絡。因此,最初為游戲設計的圖形處理單元(GPU)如今為AI提供動力。除此之外,谷歌的張量處理單元(TPU)也是基于類似的設計原則。

盡管圖形處理器(GPU)和張量處理器(TPU)朝著正確的方向邁出了一步,但當今的AI基礎設施仍受困于其傳統的架構。我們距離擁有千兆級處理器并行處理本地存儲數據的芯片還很遙遠。而且,AI模型仍然串行指令來實現,究其根源,傳統的計算機編程、芯片架構和系統設計根本不像大腦。我們在經典計算機上模擬神經計算,這效率低得就像過去人類計算時代用大腦模擬經典計算一樣。

不過,在接下來的幾年里,我們預計會看到一種真正的神經計算范式出現。神經計算最終可能會在光子、生物、化學、量子或其他全新的基質上實現。但即便“硅基大腦”是利用熟悉的芯片技術制造出來的,其組件的組織方式也會有所不同。每平方厘米的硅片都將包含數以百萬計的信息處理節點,這些節點就像一個個神經元一樣能夠同時運作。

這些神經芯片不會運行程序。它們的功能將不是由代碼(至少不是我們如今所熟知的那種代碼)來決定的,而是由存儲在整個計算區域內的數十億甚至數萬億個數值參數來決定。神經硅腦能夠被“刷新”,其參數可以按照需要進行初始化;但它也能夠從經驗中學習,即時修改這些參數。計算將是分散且穩健的,偶爾的故障或局部損壞無關緊要。這與大腦的天然架構不謀而合,而這絕非巧合。


預測智能

對于我們這些語言模型早期開發者來說,僅憑預測下一個單詞(或“下一個標記”),AI就展現出的驚人的通用智能,這一發現具有劃時代的意義。即便我們認同大腦是可計算的,大多數人依然認為真正的AI需要某種特殊算法,來破解智能與意識的亙古謎團。所以,當僅靠大規模應用下一個標記預測(next-token prediction)就“解決”了智能問題時,這著實令人震驚。

而從最初的震驚中緩過神后,我們會意識到這并不意味著再無未解之謎,也不意味著意識不存在,或者心智只是《綠野仙蹤》(Wizard of Oz)里的“幻想”。大語言模型(LLM)背后的神經網絡規模龐大,且已被證明能夠進行任何計算,就像一臺運行程序的經典計算機一樣。實際上,LLM能學會的算法種類如此之多,已遠超計算機科學家發現或發明的算法總和。

或許,這種震驚是如此多余。我們早已知道大腦具有計算能力,且它的一切能力必然是可習得的,要么通過進化,要么通過經驗——否則我們根本就不會存在。于是,我們發現自己已身處在一種奇怪的境地,即在尚未完全理解某事物的情況下就已將其復制出來。當圖靈和馮·諾依曼為計算機科學做出貢獻時,理論還曾大幅領先于實踐。而如今,實踐則反過來超越了理論。

實驗室能夠創造出智能,為我們探究其長期存在的奧秘提供了強大的新途徑,因為盡管有不同的聲音,但人工神經網絡并非“黑箱”。我們不僅能夠審視其思維鏈,還可以更深入地探究它們,以開展“人工神經科學”。與生物大腦不同,我們可以記錄和分析其活動的每一個細節,大規模進行完全可重復的實驗,并開啟或關閉網絡的任何部分以觀察其作用。

盡管AI模型與大腦之間存諸多顯著的差異,但通過分析,我們也發現了它們之間存在著驚人的功能相似性,這表明其二者存在共同的基本原理。在“NeuroAI”這一旗幟下,AI從數十年的大腦研究中汲取靈感,如今也開始反向回報神經科學。

盡管我們尚未完全理解LLM所學習的算法,但我們開始明白為何學習預測下一個詞元會如此有效。在神經科學領域,“預測性大腦假說”(predictive brain hypothesis)由來已久;該假說認為大腦進化是為了不斷地建模和預測未來,其進化是通過感知環境、自身、自身行為及其對自身和環境的影響而實現的。我們能夠有目的地、明智地行事,正是依賴于這樣的模型。

我們在經典計算機上模擬神經計算,這效率低得就像過去人類計算時代用大腦模擬經典計算一樣。

想象一下自己起身拿一杯水的場景。在該過程里,一個人能夠在短短一兩秒內就學會如何很好地對世界和自己的身體進行建模,從而將手伸向杯子,用手指握住它,然后送到嘴邊喝掉。然而,這其實絕非易事。在這些動作的每個階段,你的神經系統都會計算出一個預測值,并將其與本體感覺反饋進行比較。你的眼睛在場景中快速地移動著,以進一步進行誤差校正。

從更高的層面來看,你預測喝水能解渴。口渴本身也是一種預測信號,盡管是整個物種在漫長的進化時間尺度上“習得”的。無法預測自身對水的需求的生物,存活時間不會太長,也就無法將其有缺陷的自我模型傳遞下去。

演化濃縮了無數前代的經驗,并于最終被歸結為繁衍成功或死亡的粗略信號。當新生兒認出人臉,或者一只從未見過蛇的貓被背后突然出現的黃瓜嚇得跳起來時,演化學習(evolutionary learning)就在發揮作用。

機器學習涉及調整模型參數,這些參數通常被認為代表突觸(即神經元之間的連接),通過終身學習而增強或減弱。這些參數通常是隨機初始化的。但在大腦中,神經元是根據遺傳編碼(且對環境敏感)的發育程序連接起來的。我們預計,未來的AI模型也將演化為自我構建的系統。它們將通過經驗動態地生長和發展,而不是具有固定參數數量的靜態、人工設計的架構。

在不同時間尺度上進行統一學習,或許還能消除當前模型訓練與正常運行(或推理)之間的差距。如今,最先進的LLM訓練成本極其高昂,要耗費大量計算資源長達數月,而推理則相對便宜,可以實時完成。然而我們知道,LLM掌握的最重要技能之一就是學會學習,這也就解釋了它們為何能在對話過程中處理新的想法、詞匯或任務。

不過,就目前而言,任何新獲得的知識都是即時性的,其僅在“上下文窗口”內存在,而模型參數則自始至終保持不變。未來那些能夠將行動與預測統一起來的模型,應該可以像我們一樣,在運行過程中持續累積、開放式學習。

同樣地,我們開始看到一種轉變,人們不再將AI模型的能力局限于其初始離線訓練階段,而是轉向“測試時擴展”(test-time scaling),在這種模式下,模型只需花更多時間思考其響應就能變得更強大。更類似人腦的模型設計,應能讓這種當下的改進像我們人類一樣不斷累積,從而使所有未來的響應都能從中受益。

由于支撐LLM的神經網絡是強大的通用預測器,所以它們不僅能夠對語言、聲音和視頻進行建模,還能徹底變革機器人技術,前文所提到的抓取一杯水的例子也就不足為奇了。幾十年來,人工編程的GOFAI在超出裝配線那種重復、常規化的機器人技術方面一直舉步維艱。但如今,類似LLM的“視覺-語言-動作”模型能夠學會驅動各種各樣的機器人身體,從Waymo無人車到人形機器人(以及許多其他)形態,被越來越多地部署在了復雜的非結構化環境中。


?汽車大廠的自動駕駛汽車比賽. 圖源:fortune

通過運用思維鏈和推理軌跡,將大問題拆解為較小的中間步驟,預測模型甚至能夠模擬出多種可能的結果或意外情況,從潛在的未來樹中進行選擇。這種“有選擇性的”預測,可能正是我們自由意志概念的成立機制。

最終,生命體的一切行為都可以被視為一種自我實現的預言。生命就是那種能將自身預測為持續存在的事物,而且隨著智能的不斷提升,這種預測也會變得愈發復雜精妙。

擁抱預測處理范式,包括將規劃、行動和預測統一起來,不僅有望進一步改進語言模型和機器人技術,而且還能將機器學習、神經科學甚至理論生物學的理論基礎建立在統一基礎之上。


通用智能

有人認為,LLM只是偽智能:它們看似聰明,實則不然。這些懷疑論者認為,我們通過讓AI“自動補全”海量句子,訓練出了能通過圖靈測試的機器,但這些機器只是讓我們誤以為“有人在”,實際上并非如此。

許多人持相反觀點,認為AI是真實的,并且我們即將實現“通用人工智能”(AGI)——盡管對于如何定義它存在各種不同的看法。對不同的人來說,這一前景可能令人興奮、令人擔憂,甚至威脅存在。

盡管有人反對,但人工神經網絡確非“黑箱”。

那么,哪一方是正確的呢?答案或許是“都不是”:雙方陣營中的大多數人認為AGI是一個在未來某個時候會(或不會)跨越的明確界限。但實際上,似乎并不存在這樣的界限——或者即便存在,我們可能已經跨越了它。

首先來分析懷疑論者的觀點。對許多人來說,AI完成任務的能力——無論是聊天、寫詩、駕駛汽車,還是做些全新的事情——都無關緊要,因為AI的實現方式從根本上排除了其具備真正智能的可能。這種觀點可能基于這樣的斷言:大腦除了“單純的”預測之外還必須執行其他操作,大腦不是計算機,或者簡單地說AI模型沒有生命。因此,懷疑論者通常認為,當應用于AI時,諸如“智能”、“理解”、“能動性”、“學習”或“幻覺”之類的術語需要加引號,因為這都是不恰當的人格化表述。

這種對措辭的焦慮有必要嗎?從功能的角度來看,答案是否定的。我們稱鳥的翅膀和飛機的機翼都是“翅膀”,并非因為它們由相同的材料制成或工作原理相同,而是因為它們發揮著相同的作用。我們是否應該在意飛機實現飛行的方式與鳥類不同?如果我們的關注點在于目的——即鳥類和飛機為何要有翅膀,那么我們就不必在意這種困擾。

功能主義(Functionalism)是所有“有目的”的系統的標志性特征,這里的系統包括生物體、生態系統和技術系統。一切“有目的”的事物都是由相互依存的部分組成的,每個部分都為其他部分提供功能支持;而這些部分本身也常常由更小的相互依存且有目的的部分構成。

許多AI懷疑論者明里暗里更關心的是實現方式而非所取得的成果(比如飛行或智能)。然而,大自然對“如何實現”并不在意。為了增強靈活性或穩定性,無論是人工系統還是自然系統,常常會采用功能相同但工作原理不同的部件進行替代或同時使用。比如在物流領域,鐵路和卡車都能運輸貨物;作為客戶,你只關心貨物能否送達。在您的細胞中,有氧呼吸和無氧呼吸可能具有相同的功能,當你運動過猛,有氧呼吸跟不上時,無氧呼吸途徑就會啟動。

神經系統也是如此。它同樣由具有功能關系的各個部分組成,這些部分同樣可以被功能相當的部件所替代。我們已經在一定程度上做到了這一點,比如人工耳蝸和人工視網膜,盡管這些假體目前還無法達到生物耳朵或眼睛的質量。不過,神經義肢最終將與我們與生俱來的感覺器官相媲美,甚至超越它們。

有朝一日,我們甚至可能以同樣的方式替換受損的腦組織。這之所以可行,是因為你沒有“小人”(homunculus),即你的大腦中并無某個特別不可替代的區域是“你”的所在之處。讓你成為你的并非大腦或身體的任何一部分,也不是你的原子(它們無論如何都會頻繁更新),更不是你身體每一部分的具體實現方式。相反,你是一個高度復雜且動態的功能關系集合體。

那么AI模型呢?LLM不僅實現方式與大腦截然不同,它們與我們的關系也不同于人與人之間的關系。它們沒有身體,沒有生命經歷,沒有親屬關系,也沒有長期的情感羈絆。這些差異思考AI的倫理和法律地位時至關重要,但在諸如智能和理解能力之類的問題上則無關緊要。

一些研究人員雖然在理論上認同所有這些前提,但仍堅持認為AGI存在一個當前的AI系統尚未跨越的門檻。那么,我們如何才能知道它們何時跨越了呢?答案必然涉及用于測試我們認為構成通用智能的能力的基準。

目前,我們已擁有了許多套基準測試方案。其中有些方案,比如AI研究員弗朗索瓦·肖萊特(Francois Chollet)的“抽象與推理語料庫”,類似于智商測試。還有一些則更為全面;例如,谷歌DeepMind的研發人員就強調,我們更應關注能力而非過程,他們還強調通用智能代理需要勝任“包括學習新技能在內的廣泛非物理任務”。但究竟應該評估哪些任務呢?出某些競爭激烈的市場中界定明確的技能之外,我們可能很難將自己劃分為“勝任者”(超越50%)、“專家”(超越90%)和“大師”(超越99%)等類別。

為了增強靈活性或穩定性,無論是人工系統還是自然系統,常常會采用功能相同但工作原理不同的部件進行替代或同時使用。

AGI這一術語最早可追溯至2002年,計算機科學家彼得·沃斯(Peter Voss)和姆拉丹·約萬諾維奇(Mla?an Jovanovi?)在2023年的一篇論文中將其極致簡化為“與人類相當的通用認知能力”。但也有些僅從經濟角度的界定。OpenAI官網將AGI定義為“一種高度自主的系統,能夠在大多數經濟價值高的工作中超越人類”。2023年,AI企業家穆斯塔法·蘇萊曼(Mustafa Suleyman,現為微軟AI部門的首席執行官)提出,當一個AI能夠賺取一百萬美元時,它就具備了通常意義上的“能力”。

這樣的門檻既武斷,也并不符合我們對人類智能的認知方式。為何一定要強調經濟活動呢?我們得賺多少錢才算聰明,那些沒能積累巨額財富的人就不聰明嗎?

當然,我們開發AI的動機在于期望豐富或拓展人類的科學、經濟或社會生活。但生產力的經濟衡量標準既不簡單,也不能直接反映智能水平。而且,這種衡量標準還排除了大量人類勞動,而這些勞動的寶貴價值并在經濟維度上得到體現。對此,或許更應該得到關注的是任務本身的“生態效度”(ecological validity),即它們是否對他人重要,無論是經濟上、藝術上、社會上、情感上還是其他方面。然而,這樣復雜的標準凸顯了純粹客觀的效能評估的難度。

如今的LLM已經能夠完成一系列種類繁多且依舊在不斷增長的認知任務,而就在幾年前,任何理智的人都會認為這些任務需要高智商才能完成:從剖析復雜的論點到編寫代碼,再到緩和電子郵件的語氣,以及在線研究某個主題。在幾乎任何給定的領域,人類專家的表現仍然更勝一籌(這正是當前許多評估方法所試圖衡量的性能差距)。但我們必須承認,沒有哪一個人——無論多么聰明——擁有與AI相當的廣泛技能。在過去幾年里,我們已悄然轉變評估標準,即衡量AI性能不再以“任何個體”為基準,而是以“全人類”為參照。換言之,當前單個人類的“通用性”已低于AI模型。

這一進展迅速且持續不斷。我們認為,該領域的標準不斷提高,部分原因在于似乎沒有哪一項單獨的進展足以宣告AGI的成功。總有更多的工作要做。然而,我們相信,如果讓2002年的AI研究人員有機會接觸到當今的任何LLM,他絕對會毫不猶豫地說AGI已經到來。

實現AGI中的“通用”,關鍵在于“無監督訓練”,即在不規定任務的情況下進行機器學習。微調和強化學習常被用于后續增強特定技能和行為屬性,但如今大多數模型訓練都是通用的。AI的廣泛能力源于對語言、聲音、視覺或其他任何事物進行建模。一旦模型能夠通用地處理這些模態,那么,就像我們一樣,只要首先描述、推斷或通過示例展示任務,它就能被指示執行任何任務,甚至是全新的任務。

想要弄明白我們如何實現AGI,為何在經歷了數十年的失敗嘗試之后才在最近得以實現,以及這對理解我們自身心智意味著什么,我們就必須重新審視我們最根本的假設——不僅是關于AI的,還有關于計算本質的。


集體智慧

“社會智力假說”(Social intelligence hypothesis)認為,像我們這樣的智慧生物之所以會出現智力爆發,是因為存在一種社會性反饋循環的機制。展開來說,我們的生存和繁衍成功與否,取決于我們能否交朋友、吸引伴侶、獲取共享資源,至少是說服他人幫助照顧我們的孩子。實現所有這些都需要一種“心智理論”,即設身處地為他人著想的能力:對方看到了什么,感覺如何?他們在想什么?他們知道什么,不知道什么?他們會如何行動?

追蹤他人的心理狀態是一項認知挑戰。縱觀各類靈長類動物,研究人員觀察到大腦大小與群體規模之間存在相關性。在人類中,與心智理論相關的腦區體積與朋友數量有關;此外,朋友多的人往往比社交孤立的人更健康、更長壽。綜合來看,這些觀察結果表明,持續的選擇壓力促進了社會腦的進化。

我們已悄然轉變評估標準,即衡量AI性能不再以“任何個體”為基準,而是以“全人類”為參照。換言之,當前單個人類的“通用性”已低于AI模型。

盡管心智理論存在馬基雅維利式(Machiavellian)*的一面,但它對于人類所獨有的高級合作形式至關重要。教學與學習、勞動分工、聲譽維護以及“IOU”心理賬戶都依賴于心智理論。因此,任何重要的經濟、政治體系或技術的發展也都依賴于此。由于能夠大規模合作的部落或社區能作為一個更龐大且強大的整體發揮作用,心智理論不僅為個人帶來益處,也為群體帶來益處。


?馬基雅維利式智力 (Machiavellian Intelligence),是指個體通過狡黠、策略等手段來理解和操縱他人行為的能力。它由理查德·伯恩(Richard Byrne)和安德魯·威滕(Andrew Whiten)在1988年提出,用以解釋靈長類動物復雜智力的進化原因,認為智力的進化并非僅為了應對物理環境,更是為了在復雜的社會關系中更好地生存和繁衍。其典型表現包括欺騙、操縱他人以獲取資源、建立和利用社會聯盟等。圖源:Oxford: Clarendon Press, 1988.

隨著這種群體層面的優勢變得具有決定性作用,心智的社會整合便邁向了一場重大的進化轉變——一種共生關系(symbiosis),如前所述,在這種關系中,曾經獨立的實體聯合起來,創造出新的、更偉大的事物。而整合的代價則是,曾經獨立的實體再也無法獨自生存和繁衍。這正是對現代城市化社會的真實寫照:我們當中又有多少人能夠在森林里獨自生存呢?

我們組成了一個超級生命體(superorganism)。正因如此,我們的智慧本就是集體性的,因此在某種意義上,我們可以被稱為超人。這就是為什么當我們用大量的人類集體成果來訓練LLM時,我們實際上已經在創造一種超級智能,其知識廣度和平均深度都遠超任何單個個體——盡管LLM通常無法在專業領域內超越人類專家。

這就是近期的一項嘗試“人類終極測試”(名字相當冷酷)的項目初衷,它試圖創建一個LLM目前尚無法通過的AI基準測試。其測試題目由來自100多個領域的近1000名專家編寫,AI需要掌握諸如翻譯羅馬墓碑上的帕爾米拉文,或者知道蜂鳥的籽骨支撐著多少對肌腱這樣的技能。前者古典學專家或許能答對,后者鳥類學家或許能答對,但普通人的測試表現可能會接近零分。相比之下,目前最先進的模型得分在3.3%到18.8%之間。

人類之所以擁有超凡的智慧,得益于其所擁有的認知分工;從某種意義上說,單個大腦也是如此。AI先驅馬文·明斯基(Marvin Minsky)曾提出“心智社會”(Society of Mind)的概念,認為我們看似單一的“自我”實際上是由眾多相互作用的專門化代理組成的蜂巢思維。的確,我們的大腦皮層由一系列“皮質柱”組成,這些重復的神經回路單元多次排列,形成一個廣闊的表面。盡管人類大腦皮層的厚度僅約2~4.5毫米,但其面積卻可達2500平方厘米(大腦表面之所以遍布褶皺,是因為要把面積相當于一張大號餐巾的腦組織塞進我們的頭顱中)。,正是由于這種模塊化設計,我們的大腦皮層才能在進化壓力驅動下迅速擴張,實際上就是增加了更多的皮質柱。

大腦皮層的模塊化,不僅是發育意義上的,也是功能意義上的。大腦皮層的某些部分專門負責處理視覺,另一些部分負責處理聽覺或觸覺等;還有一些部分似乎專門負責社會性模仿、書寫和算術。由于這些任務如此多樣,人們很容易認為大腦中的相應區域,就像洗碗機和復印機那樣,高度專業化且彼此差異顯著。

其實不然:大腦皮層各個區域從嬰兒期就開始學習各自的任務。這種學習能力既強大又通用,例如皮層區域中存在諸如“視覺詞形區”,專門負責閱讀——而閱讀這項技能在人類歷史上出現得太晚,不可能通過自然選擇進化而來。我們的皮層并非為閱讀而生,但它能學會閱讀。每個皮層區域都運行著相同的通用“學習算法”,與其說是一臺預裝功能的機器,將之視為一個通過學習掌握特定領域知識的“人類專家”更為貼切。

這種“社會性皮層”(social cortex)視角強調:你的大腦中并不存在一個“小人”(homunculus)或中央處理器(CPU)來承載“你”的存在;相反,大腦更像是一個“社區”,它能在沒有中央統籌的情況下協調一致地運作,這不僅依賴于各個區域執行專門任務的能力,也依賴于這些區域“相互建模”的能力——就像人們需要心智理論來建立關系和更大的社會單元一樣。

那么,大腦區域本身是否也是由更小部分組成的“社區”在運作呢?我們認為確實如此。皮層回路由神經元構成,這些神經元不僅執行專門任務,似乎也學會了對其鄰近神經元進行建模。這印證了那句熟悉的俚語“一路向下皆是龜”(turtles all the way down,暗指無限的遞歸),暗示智能最好被理解為一種“社會性分形”(social fractal),而非單一的整體實體。

當然也可能是“一路向上皆是龜”(turtles all the way up)。隨著大腦變大,個體可以變得更聰明;而隨著個體數量增多,社會也可以變得更聰明。這里存在一種奇妙的“跨尺度反饋循環”:我們只有通過增大大腦(以利于為他人建模),才能形成更大的社會;而我們大腦本身的增大,似乎也是通過一種類似的內部認知分工(division of cognitive labor)實現的。

大腦區域本身是否也是由更小部分組成的社區在運作?我們認為確實如此。

AI模型似乎也遵循同樣的原則。研究人員普及了“規模法則”(scaling laws)這一概念,即模型的大小(以及訓練數據的數量)與模型的能力之間存在關聯。大致來說,規模更大的模型更聰明,就像大腦越大越聰明一樣。而且,與大腦一樣,AI模型也是模塊化的。實際上,許多模型都依賴于明確訓練一個緊密協作的“專家集體”,即所謂的“專家混合模型”(Mixture of Experts)。此外,即使是大型的、單一的模型也表現出“涌現模塊化”(emergent modularity)——它們通過學習如何將自身劃分為專門的模塊來實現規模擴展,這些模塊能夠分工合作、各司其職。

從社會性和認知勞動多尺度分工的角度思考智能,代表著一種深刻的范式轉變。它促使我們探索更像不斷發展的社交網絡的AI架構,而不是靜態的、越來越龐大的單體模型。同時,讓模型(以及子模型)逐步專業化,并與人類以及彼此之間形成長期合作,這一點也將至關重要。

參與“人類終極測試”的1000多位專家都清楚,從互聯網上能學到的東西是有限的。越過這一界限,學習就離不開行動和互動。當新的知識被分享時,知識的邊界才會拓展——無論是源于科學實驗、討論,還是線下長時間的創造性思考(這或許等同于與自己對話)。

在當前的前沿AI開發路徑中,已有的人類成果被整合并蒸餾成一個巨大的“基礎模型”,其權重隨后被凍結。但在此基礎之上,AI模型也正逐漸向“高度自主性”與“主體能動性”(agentive)演進,這種演變包括與其他智能體的協作或互動。AI在簡短的集中式互動中已經很有幫助。但若要讓它們在拓展人類集體知識和能力邊界這類更大的項目中發揮作用,就必須賦予它們如同人類般互動式持續學習及多樣化發展的能力。

這無疑會引發擔憂,因為它為AI開啟了一條“開放式自我演化”的大門,而這正如同人類自身的發展一樣。AI安全領域將模型開放式進化的能力稱為“元優化”(mesa optimization),并將其視為一種威脅。但值得注意的是,我們發現,即便當今的AI模型也已是元優化器,因為預測本質上涉及即時學習(learning on the fly);這就是聊天機器人在被指示執行新任務時所做的。它之所以可行,是因為即使聊天機器人的神經網絡權重已被凍結,其每次輸出都會調取當前對話記錄的整個“上下文窗口”。盡管如此,現有聊天機器人仍存在某種“失憶癥”。它們通常無法在單次會話或多輪會話之外保留其學習成果。谷歌近期開發的“無限注意力”(Infini-attention)和長期記憶技術,通過壓縮舊信息實現近乎無限的上下文窗口,標志著該領域的重大突破。

智能的社會視角,不僅為AI工程提供了新的視角,也為哲學中一些長期存在的問題提供了新的視角,如意識的“難問題”。如果我們把意識理解為我們對自己作為擁有自身經歷、內心世界和能動性主體的清晰認知,那么意識的出現就不足為奇了。我們構建“自我”模型,是因為我們生活在充滿“自我”的社會環境中,必須不斷運用心智理論來預測他人的想法和感受。當然,我們也需要理解自己也是一個“自我”,這不僅是因為我們自己的過去、現在和未來的經歷非常重要,還因為我們對他人的模型中也包含著他們對我們的模型。

數十年來,學界一直試圖通過實證測試來診斷心智理論能力的缺陷。當我們在LLM上運行這些測試時,毫不意外地發現它們的表現與人類不相上下。畢竟,在訓練模型的對話、故事和評論區數據中,自我意識和心智理論任務本就占據重要地位。我們的聊天機器人同樣依賴心智理論。在每次對話中,AI不僅需要構建用戶模型,還要維持自身“友善助手”模型,以及用戶對其的認知模型——如此遞歸建模,層層嵌套。


超越常規的AI發展

經過數十年的緩慢發展后,我們正快速邁向一個新階段——未來的AI不僅能響應人類個體的智能,還能拓展集體極限,超越人類的智能水平。面對AI迅猛的發展勢頭,我們既興奮、期待,又深知這是范式變革的關鍵時刻。就像歷史上所有重大轉折一樣,這個階段必然會伴隨著焦慮、爭論和動蕩,還面臨著許多必須謹慎處理的問題。

在這種時刻,我們不僅要優先考慮技術突破,更應像國際象棋中的“跳馬”那樣,在推進技術進步的同時靈活轉向相鄰領域或不同范式,通過縱橫結合的方式開辟豐富的知識領域,重新思考既有假設,構建新的理論基礎。為了開發真正造福人類、推動科學發展的智能系統,最終借助其理解我們自身——無論是作為個體、小型智能生態群落,還是作為更大整體的組成部分,我們必須建立全新的范式。

https://www.noemamag.com/ai-is-evolving-and-changing-our-understanding-of-intelligence/









關于追問nextquestion

天橋腦科學研究院旗下科學媒體,旨在以科學追問為紐帶,深入探究人工智能與人類智能相互融合與促進,不斷探索科學的邊界。歡迎評論區留言,或后臺留言“社群”即可加入社群與我們互動。您也可以在后臺提問,我們將基于追問知識庫為你做出智能回復哦~

關于天橋腦科學研究院

天橋腦科學研究院(Tianqiao and Chrissy Chen Institute)是由陳天橋、雒芊芊夫婦出資10億美元創建的世界最大私人腦科學研究機構之一,圍繞全球化、跨學科和青年科學家三大重點,支持腦科學研究,造福人類。

Chen Institute與華山醫院、上海市精神衛生中心設立了應用神經技術前沿實驗室、人工智能與精神健康前沿實驗室;與加州理工學院合作成立了加州理工天橋神經科學研究院。

Chen Institute建成了支持腦科學和人工智能領域研究的生態系統,項目遍布歐美、亞洲和大洋洲,包括、、、科研型臨床醫生獎勵計劃、、等。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
原來她早已去世,身高2米08,多次為國奪冠,24歲就退役終生未婚

原來她早已去世,身高2米08,多次為國奪冠,24歲就退役終生未婚

白面書誏
2026-04-23 19:19:24
“19歲女生受邀去泰國潑水節被轉賣電詐園”最新消息:園區初步同意放人,可遲遲不給具體位置,雙方仍在協商接人事宜

“19歲女生受邀去泰國潑水節被轉賣電詐園”最新消息:園區初步同意放人,可遲遲不給具體位置,雙方仍在協商接人事宜

三湘都市報
2026-04-23 17:18:29
太慘烈,利潤雪崩,阿里巴巴的2025年報大暴雷,完全崩掉了

太慘烈,利潤雪崩,阿里巴巴的2025年報大暴雷,完全崩掉了

我不叫阿哏
2026-04-23 17:21:26
快訊!臺灣地區前領導人陳水扁發表聲明了!

快訊!臺灣地區前領導人陳水扁發表聲明了!

達文西看世界
2026-04-23 10:45:53
知名歌手因搶不到五一高鐵票取消演唱會!

知名歌手因搶不到五一高鐵票取消演唱會!

深圳晚報
2026-04-23 19:29:44
揮淚斬馬謖!曼城正式決定,出售1.25億“頂星”!“節拍器”來投

揮淚斬馬謖!曼城正式決定,出售1.25億“頂星”!“節拍器”來投

頭狼追球
2026-04-23 21:43:27
羨慕!某研究所員工曬出26年前三個月收入

羨慕!某研究所員工曬出26年前三個月收入

微微熱評
2026-04-23 22:11:36
加密貨幣終局:比特幣正在走向必然崩塌,其本質就是負和游戲

加密貨幣終局:比特幣正在走向必然崩塌,其本質就是負和游戲

知識圈
2026-04-23 21:27:10
CBA季后賽又臨時改賽制?球迷怒噴:若去年如此,廣廈早被淘汰了

CBA季后賽又臨時改賽制?球迷怒噴:若去年如此,廣廈早被淘汰了

弄月公子
2026-04-23 19:29:40
“特朗普說什么都沒用” 德黑蘭掛起巨幅海報宣告“永久控制”霍爾木茲海峽

“特朗普說什么都沒用” 德黑蘭掛起巨幅海報宣告“永久控制”霍爾木茲海峽

新華社
2026-04-23 21:27:51
SWIFT:3月人民幣位居全球第五大支付貨幣,占比3.10%

SWIFT:3月人民幣位居全球第五大支付貨幣,占比3.10%

界面新聞
2026-04-23 18:38:50
中國互聯網巨頭,利潤集體下滑?

中國互聯網巨頭,利潤集體下滑?

智谷趨勢
2026-04-22 11:04:33
巴薩官方:亞馬爾左腿股二頭肌受傷賽季報銷,預計能參加世界杯

巴薩官方:亞馬爾左腿股二頭肌受傷賽季報銷,預計能參加世界杯

懂球帝
2026-04-23 20:11:39
快訊!歐盟全票通過對烏克蘭900億歐元貸款!

快訊!歐盟全票通過對烏克蘭900億歐元貸款!

達文西看世界
2026-04-23 12:57:09
何潤東夫婦現身東陽街頭,兩人騎自行車買早餐!林姵希氣質出眾!

何潤東夫婦現身東陽街頭,兩人騎自行車買早餐!林姵希氣質出眾!

阿鳧愛吐槽
2026-04-23 20:10:09
決勝盤吞蛋!金花一姐王欣瑜爆冷遭逆轉,無緣馬德里站32強

決勝盤吞蛋!金花一姐王欣瑜爆冷遭逆轉,無緣馬德里站32強

全景體育V
2026-04-23 20:36:46
加拿大歌手取消原定于北京的巡演,主辦方:藝人未買到高鐵票,怕影響接下來的行程

加拿大歌手取消原定于北京的巡演,主辦方:藝人未買到高鐵票,怕影響接下來的行程

東方不敗然多多
2026-04-23 16:50:42
李鴻武:榮威20年,從家庭到“家越”

李鴻武:榮威20年,從家庭到“家越”

AutoBusiness
2026-04-23 12:23:29
王會民,非法收受他人財物,數額特別巨大

王會民,非法收受他人財物,數額特別巨大

新京報
2026-04-23 10:21:20
糾偏“吞并論”:戰略協同是阿維塔高端化最強“助推器”

糾偏“吞并論”:戰略協同是阿維塔高端化最強“助推器”

AutoBusiness
2026-04-23 15:25:05
2026-04-24 00:08:49
追問Nextquestion incentive-icons
追問Nextquestion
科研就是不斷探索問題的邊界
728文章數 37關注度
往期回顧 全部

科技要聞

馬斯克喊出"史上最大產品",但量產難預測

頭條要聞

媒體:海軍宣傳片出現的"新兵何劍" 傳遞了巨大信息量

頭條要聞

媒體:海軍宣傳片出現的"新兵何劍" 傳遞了巨大信息量

體育要聞

給文班剃頭的馬刺DJ,成為NBA最佳第六人

娛樂要聞

王大陸因涉黑討債被判 女友也一同獲刑

財經要聞

關于AI算力鏈"瓶頸" 這是高盛的最新看法

汽車要聞

令人驚艷的奇瑞車 風云A9可不只是樣子貨

態度原創

藝術
數碼
時尚
手機
軍事航空

藝術要聞

看!這些美女的眼神能讓你心醉神迷

數碼要聞

榮耀WIN游戲本發布,多款新品亮相!

李昀銳:林深見木

手機要聞

爆火!榮耀閃電機器人站臺PC發布會 散熱技術藏不住了

軍事要聞

人民海軍成立77周年 主力艦艇亮相上海

無障礙瀏覽 進入關懷版