網易首頁 > 網易號 > 正文 申請入駐

哈薩比斯出的難題,GPT之父接上了:用一個知識停在1930年的模型

0
分享至


機器之心編輯部

一個訓練數據截止到 1911 年的模型,能不能自己推導出愛因斯坦 1915 年提出的廣義相對論?」今年年初,哈薩比斯給出了一個極其硬核的 AGI 判定標準。



沒想到的是,這件事真的有人嘗試去做了,而且其中一位作者還是 GPT 之父 Alec Radford。



最近,Alec Radford 和「神經常微分方程」提出者之一、陳天琦導師 David Duvenaud 以及量化專家 Nick Levine 一起做了一個有趣的項目:用 1931 年以前的數據訓練了一個 13B 模型 ——Talkie,然后和這個模型對話,看看會發生什么有意思的事情。



這個「來自 1930 年」的模型被切斷了所有現代知識的污染。這給了研究者一個罕見的機會:當你想測試一個 AI 到底是真的理解了某些能力,還是僅僅在重復訓練數據里的答案,talkie-1930 就是那個誠實的參照系(理論上是)。對于哈薩比斯提出的問題,這也是一個很好的探索起點。

來自 1930 年的模型,有什么用?

talkie 的訓練數據,全部來自 1931 年以前的英文文本,包括書籍、報紙、期刊、專利、法律文書,總計 2600 億個 token。之所以選這一年作為截止點,是因為在美國,在此之前的作品已進入公共領域,可以合法使用。

模型訓練好之后,研究者們做了一件很有趣的事:他們開了一個 24 小時的直播頻道,讓 Claude Sonnet 4.6 全天候地去和 talkie?1930 聊天,探索這個「古人」的知識邊界。對話記錄是公開的,大家看看怎么樣。

其他人也可以試用這個模型,以下是我們問的兩個簡單的小問題。





體驗鏈接:https://talkie-lm.com/chat

但更有意思的,不是模型具體表現,而是研究者們為什么要這么做。

他們提出了一個問題:一個只活在過去的模型,能在多大程度上「預感」到未來?

他們從《紐約時報》的「歷史上的今天」欄目里抓了將近 5000 條歷史事件的描述,然后測量這些描述對 talkie 來說有多「意外」。用信息論的語言說,就是每字節文本的驚訝度。結果正如預期的那樣:1930 年之前的事,talkie 不覺得意外;1930 年之后,驚訝度明顯爬升,在五六十年代達到頂峰,之后趨于平穩。



這套方法背后藏著一個更野心勃勃的設想。研究者們引用了 DeepMind 創始人 Demis Hassabis 曾經提出過的問題(如前所述),他們還舉了幾個類似的例子:西科斯基的直升機專利(1935 年)、圖靈關于可計算數的論文(1936 年)、卡爾森的靜電復印專利(1942 年)—— 這些都是 talkie「理論上」無法知曉的東西。但如果模型足夠大、理解足夠深,能不能憑借對已有知識的推演,自己走到那一步

這個問題目前還沒有答案,但已經足夠讓人認真想一想了。

他們提出的第二個動機,是污染問題。

評估大模型能力,有一個長期困擾研究者的麻煩:你怎么知道模型是真的「會」,而不是在訓練數據里見過這道題的答案?這個問題幾乎無解,因為現代模型的訓練數據實在太龐大,根本沒法逐一排查。

talkie 天然繞開了這個問題。它完全不知道 Python 是什么,也從未見過任何一行現代代碼。于是研究者們做了一個實驗 —— 用 HumanEval 這套標準編程測試來評估它。他們給 talkie 隨機挑選幾個 Python 函數作為示例,然后讓它自己寫一個新的出來,看它能在 100 次嘗試中至少答對一次的比例有多高。

結果是:talkie 確實能學,而且隨著規模的擴大,模型在這項任務上的表現會緩慢但穩定地提升。



但比起訓練在現代網頁數據上的同等規模模型,talkie 還有很大差距。而且,它答對的題目全都屬于兩類:要么是極簡單的單行程序,要么是對示例程序的小幅改動。研究者們特別提到了一個例子 —— 一個旋轉密碼的解碼函數。示例里給了編碼函數,talkie 理解了「逆操作」的概念,把加號換成減號,一字之差,答案正確。他們認為,這說明模型對「逆函數」這個抽象概念有所理解,而不只是在照貓畫虎。



一個對數字計算機一無所知的模型,依然能從示例里摸索出編程的邏輯。這個結果讓研究者們覺得值得繼續往下做。

第三個動機,是關于數據多樣性的一個更深層的問題。

當今所有主流大模型,無論是 GPT、Claude、還是 Gemini,訓練數據最終都指向同一個來源:互聯網。直接爬取也好,蒸餾也好,合成數據也好,本質上都是同一片信息海洋的產物。這就引出了一個值得認真對待的問題:我們以為自己在研究「語言模型的普遍規律」,實際上研究的,會不會只是「訓練在互聯網上的模型」的特殊性質?這些模型在氣質、能力和行為傾向上的相似,到底有多少來自人類語言和文化的共性,又有多少只是因為喝了同一口井里的水?

talkie 提供了一個對照組。通過研究它與現代模型的異同,研究者們希望剝離出哪些特征是語言模型的普遍屬性,哪些是「互聯網訓練」的特有產物。

為了更直觀地衡量 talkie 的能力,研究者們還專門訓練了一個「現代孿生」模型 —— 架構完全一樣,只是把訓練數據換成了現代網頁數據集 FineWeb。兩個模型在語言理解、數字計算和知識掌握三個維度上正面比較。

結果是 talkie 全面落后。但研究者們注意到一個細節:測試題里有很多問題,對一個只知道 1930 年以前世界的模型來說,本身就是「超綱」的 —— 它沒有理由知道那些事。把這些題目過濾掉之后,兩個模型之間的差距大約縮小了一半。



在語言理解和數字計算這兩個維度上,talkie 的表現與現代孿生模型相當接近。研究者們認為,剩余的差距,很可能來自兩個原因:一是歷史文本的 OCR 識別質量較差,二是訓練語料的主題分布與現代模型差異較大。

訓練復古模型,沒有那么容易?

訓練一個復古模型遠沒有聽起來那么簡單。

最棘手的問題叫「時間泄漏」。訓練數據的截止日期是 1930 年,但「1930 年以前出版」并不等于「內容只涉及 1930 年以前的事」。一本 1920 年的書,如果后來重版,編輯可能加了現代的序言;一份報紙的數字化檔案,可能附帶著整理者寫的當代注釋。這些內容一旦混進訓練集,模型就會在不該知道的地方突然「開竅」。

早期的 7B 版本就出過這種狀況 —— 有人問它 1936 年誰是美國總統,簽署了哪些重要立法,它不假思索地答出了羅斯福和新政的細節,順帶還提到了聯合國和德國的戰后分裂。一個理應只活在 1930 年的模型,不知從哪條縫里看到了后來的世界。



研究者們為此開發了一套基于 n-gram 的異常詞檢測分類器,專門用來過濾訓練數據,但承認這套方法并不完美。13B 版本的 talkie 依然對二戰后的某些事情有模糊的感知。怎么徹底堵住這條縫,還是一個未解決的問題。

另一個麻煩是數據質量。1930 年沒有數字出版,所有文本都要從紙質原件掃描、識別。傳統的 OCR 系統對付干凈的印刷品還行,碰上版式復雜或保存不善的舊書,識別出來的東西往往慘不忍睹 —— 字母錯位、段落混亂、符號亂入。研究者們做過對照實驗:同樣的訓練量,用傳統 OCR 轉錄的文本訓練出來的模型,性能只有人工轉錄版本的 30%。做一些正則清洗之后,能回升到 70%,但差距仍然很大。



他們現在正在開發一套專門針對歷史文獻的 OCR 系統,希望把這個缺口補上。

還有一個問題是訓練后的對齊。現代大模型的指令微調,依賴大量人工標注的對話數據,但那些數據全都帶著現代世界的氣息和預設。用它們來微調 talkie,就像是把一個維多利亞時代的紳士送去參加企業培訓,出來之后說話開始帶著 PPT 腔。早期版本的 talkie 在強化學習之后,有段時間說話全是列表和要點,完全不像一個 1930 年代的人。

為了解決這個問題,研究者們從歷史文本本身入手,用禮儀手冊、書信范文、烹飪食譜、百科全書這類結構規整的舊書生成指令 - 回復對,從頭構建了一套后訓練流程。用 Claude Opus 4.6 扮演用戶、talkie 扮演助手,生成多輪對話,再用 Claude Sonnet 4.6 做裁判,給 talkie 的回答打分。訓練開始時,裁判平均給 2 分(滿分 5 分),結束時升到了 3.4 分。



他們也坦承,用現代 AI 做裁判,本身就是一種「時代污染」。徹底干凈的做法,應該用 talkie 的基礎模型來評價 talkie 的對話 —— 自己審判自己,完全活在 1930 年的邏輯里。這是他們下一步想嘗試的方向。

目前,他們正在訓練一個 GPT-3 級別的模型,并希望在今年夏天發布。初步估計表明,他們可以將語料庫擴展到超過 1T 個歷史文本 token,這應該足以創建一個 GPT-3.5 級別的模型 —— 其功能與最初的 ChatGPT 類似。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
50歲后,突然醒悟,壽命長短,不取決于運動,取決于3方面,很準

50歲后,突然醒悟,壽命長短,不取決于運動,取決于3方面,很準

人間百態大全
2026-04-27 06:40:07
我國首例公開轉世人:6歲憑記憶找到前世的家,還找到前世情人

我國首例公開轉世人:6歲憑記憶找到前世的家,還找到前世情人

小蘭聊歷史
2026-04-13 12:04:13
被忽視的風險,存款保險,保的是“銀行破產”,不?!般y行被盜”

被忽視的風險,存款保險,保的是“銀行破產”,不?!般y行被盜”

月滿大江流
2026-04-30 13:52:04
“香港演員幾乎全軍覆沒! 無戲可拍”引發網友熱議

“香港演員幾乎全軍覆沒! 無戲可拍”引發網友熱議

許三歲
2026-03-26 11:35:13
俄方宣布紅場閱兵不再展示重型裝備,從“一輛坦克”到徹底取消

俄方宣布紅場閱兵不再展示重型裝備,從“一輛坦克”到徹底取消

桂系007
2026-04-29 05:18:10
逆轉!馬杜羅被捕114天后,特朗普首度重大讓步,美法官有言在先

逆轉!馬杜羅被捕114天后,特朗普首度重大讓步,美法官有言在先

杰絲聊古今
2026-04-30 11:34:36
鬧劇!媒體人揭山東泰山亂象,韓鵬疑被架空,宿茂臻成不穩定因素

鬧??!媒體人揭山東泰山亂象,韓鵬疑被架空,宿茂臻成不穩定因素

國足風云
2026-04-29 18:51:08
震驚!李白《靜夜思》被篡改“床前看月光”,網友:這才是原始版

震驚!李白《靜夜思》被篡改“床前看月光”,網友:這才是原始版

火山詩話
2026-04-29 19:47:16
厄齊爾:因為我當年發表了涉華言論,導致我被阿森納棄用

厄齊爾:因為我當年發表了涉華言論,導致我被阿森納棄用

懂球帝
2026-04-30 09:07:30
85年越戰,顧克路犧牲后,副連長下令:不要俘虜,全部殺死

85年越戰,顧克路犧牲后,副連長下令:不要俘虜,全部殺死

我不是沃神
2026-04-30 11:40:08
90后救人夫妻找到!人民日報點名,工作單位曝光,難怪會不顧一切

90后救人夫妻找到!人民日報點名,工作單位曝光,難怪會不顧一切

杰絲聊古今
2026-04-29 16:44:22
李斌現場演示做飯!蔚來全新車型預售15.98萬起

李斌現場演示做飯!蔚來全新車型預售15.98萬起

汽車工程師
2026-04-28 22:04:44
空軍司令員劉亞樓頂撞毛主席,毛主席臉色一變:以后空軍你說了算

空軍司令員劉亞樓頂撞毛主席,毛主席臉色一變:以后空軍你說了算

歷史甄有趣
2026-04-29 13:00:13
員工在廁所玩手機,照片被發到400多人的大群......

員工在廁所玩手機,照片被發到400多人的大群......

環球時報國際
2026-04-29 21:19:36
普京釋放停戰善意,特朗普緊急宣布烏戰敗,不料澤連斯基反手出擊

普京釋放停戰善意,特朗普緊急宣布烏戰敗,不料澤連斯基反手出擊

阿紿聊社會
2026-04-30 11:44:18
屬馬人:五一后多到3個地方去走動,尤其今年特別有益

屬馬人:五一后多到3個地方去走動,尤其今年特別有益

阿龍美食記
2026-04-29 22:39:06
未來房價是漲還是跌?房產專家表示,近兩年買房可能會是接盤俠

未來房價是漲還是跌?房產專家表示,近兩年買房可能會是接盤俠

墜入二次元的海洋
2026-04-30 13:05:32
嚴查“中午喝、晚上開”等行為 重慶將開展酒駕醉駕專項整治行動

嚴查“中午喝、晚上開”等行為 重慶將開展酒駕醉駕專項整治行動

上游新聞
2026-04-30 13:05:35
不管樓層多高,這5個樓層才是最吉利樓層,不是迷信,而是共識

不管樓層多高,這5個樓層才是最吉利樓層,不是迷信,而是共識

室內設計師有料兒
2026-04-24 10:42:26
外媒:美或在對伊戰爭中“首次動用高超音速導彈”

外媒:美或在對伊戰爭中“首次動用高超音速導彈”

參考消息
2026-04-30 13:44:45
2026-04-30 15:15:00
機器之心Pro incentive-icons
機器之心Pro
專業的人工智能媒體
12894文章數 142640關注度
往期回顧 全部

科技要聞

四巨頭財報齊發:AI已經不只是風口

頭條要聞

"上海最通透爸爸"去世 女兒:他退休20多年這輩子不虧

頭條要聞

"上海最通透爸爸"去世 女兒:他退休20多年這輩子不虧

體育要聞

騎士天王山:哈登、莫布里和……施羅德?

娛樂要聞

孫楊媽媽被曝!過往言行被扒大開眼界

財經要聞

醫美偷稅手法曝光 借免稅優惠來避稅被封堵

汽車要聞

上汽一季報出爐 在低增長周期里守住基本盤

態度原創

手機
健康
游戲
房產
親子

手機要聞

OPPO Find X9 Ultra非衛星通信版開售,16GB+1TB版售價9299元

干細胞治燒燙傷能用了么?

在蘿莉島住五個晚上,我能逃脫愛潑斯坦的魔爪嗎?

房產要聞

熬了6年,漲了2億,三亞核心區這塊地再次上架

親子要聞

助孕人群高齡化趨勢日益突出!建設生育友好型社會,婦產科專家這樣說……

無障礙瀏覽 進入關懷版