- 鷺羽 發自 凹非寺
量子位 | 公眾號 QbitAI
ICLR 2026時間檢驗獎新鮮出爐,獲獎者——
GPT天才本科生Alec Radford
![]()
網友們紛紛送來祝賀:“實至名歸!”
![]()
Alec為人相當低調,其社媒清一水的都是轉發推薦他人優秀成果。
但實則他在OpenAI里是和Ilya齊名的技術大神,也是初代GPT系列奠基者
奧特曼曾稱他為愛因斯坦級別的天才,OpenAI總裁更是直言:
- 只要他想要的,我們都給。
![]()
如今,這篇他在十年前一作發表的DCGAN論文,終于正式封神!
引用量超2w,是機器學習領域最具影響力的論文之一,也是公認的GAN工程應用開山之作。
而這篇論文之所以引人注目,還有另一層原因:
三位作者,沒有一個是博士生
u1s1,這真的很酷!
![]()
時間檢驗獎首次頒給本科生
出乎意料的是,本屆ICLR一口氣開出個雙黃蛋,兩個時間檢驗獎分別是DCGANDDPG
前者直接影響了GPT系列模型的核心邏輯,后者則來自谷歌DeepMind,證明了深度強化學習可以應用于連續控制。
![]()
這也是ICLR連續三年都在以時間檢驗獎的形式認可機器學習成果,也足見這兩篇論文的經典程度不分伯仲。
組委會是這樣評價DCGAN這篇論文的:
- 這篇俗稱DCGAN的論文,首次成功驗證了基于學習的生成模型能夠生成多樣化、真實且結構復雜的圖像。
- 該研究成果正式開創了圖像生成子領域,如今圖像生成已是機器學習領域最熱門的研究方向之一,同時在工業領域落地了大量成熟且成效顯著的應用。
- 盡管相關技術不斷迭代升級(從生成對抗網絡逐步發展至擴散模型),但DCGAN依舊歷久彌新,是奠定這一重要研究領域的關鍵里程碑。
本論文共有三位作者,2個本科1個碩士
![]()
其中,Alec Radford本科畢業于富蘭克林·歐林工程學院(Franklin W. Olin College of Engineering)
據網友介紹,這是一所規模不大但實力不容小覷的工程院校。
通常只有400名學生,知名度雖不及哈佛、MIT等同類科技學校,但它們的學生在項目方向上個人自由度高,學校學術能力媲美常春藤名校。
![]()
在那里,他和同學們一起創立了公司Indico,并隨后加入OpenAI,一干就是八年。
他是最早期GPT系列論文的核心貢獻者,幾乎參與了OpenAI所有的重大突破,也是多模態模型CLIP的主導者。
他所提出的Transformer架構加生成式預訓練的方法,直接奠定了后續ChatGPT和其它大模型的基礎,同時也在GPT-1到GPT-3、Whisper、DALL-E的研發中擔任關鍵角色。
截止目前,Alec Radford的論文總被引數已超35萬
![]()
但在2024年底,Alec正式宣布告別老東家,轉而追求獨立研究。在去年3月,他以顧問的方式加入了前OpenAI CTO Mira Murati創立的Thinking Machines Lab
和他同期進新公司的,還有前OpenAI首席研究員Bob McGrew。
![]()
另一位本科生作者Luke Metz,和Alec都出自歐林工程學院,并在畢業后加入了Alec創立的Indico公司。
他也是OpenAI的初始成員之一,隨后他進入谷歌擔任長期研究員,研究重心從生成模型逐漸轉向優化算法和元學習,并在2022年短暫回歸OpenAI,24年底轉投Thinking Machines Lab。
![]()
最后一位作者Soumith Chintala,他廣為人知的身份除了是DCGAN論文作者之一,還是PyTorch的核心作者、Meta前副總裁。
他本科就讀于韋洛爾理工學院(VIT),這是一所當地的二流工程院校,這也讓他在申請碩士時屢屢碰壁,被12所高校連續拒絕。
直到最后,他終于堅持不懈收到了紐約大學發來的offer,并成功收獲LeCun青睞,得以師從LeCun。在那里,LeCun影響了Soumith的研究方向,他開始從事早期深度學習研究。
但在完成碩士學位后,Soumith再次碰壁,幾乎申請的全部工作都被拒絕,只能進入一家名為MusiAmi的小型創業公司,從事移動深度學習工作。
直到2014,在Lecun的引薦下,他進入Meta工作,并帶領團隊成員主導設計了PyTorch。而PyTorch已經成為目前全世界使用最廣泛的開源機器學習平臺之一。
在Meta工作11年后,Soumith一路從L4工程師晉升至副總裁,成為Meta核心人物。在2025年底,他離開了Meta,并加入Thinking Machines Lab擔任CTO。
![]()
自此,DCGAN三位作者兜兜轉轉,最終再次齊聚Thinking Machines Lab
其余獲獎情況
除此之外,ICLR還頒布了兩篇優秀論文獎:
![]()
- 《Transformers are Inherently Succinct》:率先提出簡潔性是衡量Transformer表達能力的新維度,同時證明Transformer在描述某些復雜概念時,相比RNN等模型存在指數級甚至雙指數級優勢。
- 《LLMs Get Lost In Multi-Turn Conversation》:設計了一種可擴展的方法來評估LLM的多輪對話能力,同時發現當交互涉及多輪對話和指令不明確時,LLM的適應性和可靠性會大幅度下降。
和一篇優秀論文提名:
![]()
其中,研究者運用逼近理論,為主流Muon優化器設計了一套極分解設計最優多項式逼近方案,收獲了業界一致的認可。
[1]https://blog.iclr.cc/2026/04/22/announcing-the-test-of-time-awards-from-iclr-2016/
[2]https://scholar.google.com/citations?user=dOad5HoAAAAJ&hl=en
[3]https://www.bostonglobe.com/2023/06/10/business/how-couple-olin-college-students-helped-spark-ai-chatbot-revolution/
[4]https://techcrunch.com/2025/04/08/mira-muratis-ai-startup-gains-prominent-ex-openai-advisers/
[5]https://timesofindia.indiatimes.com/etimes/trending/meet-soumith-chintala-indian-origin-techie-rejected-by-12-us-universities-now-cto-of-thinking-machines-lab/articleshow/126552880.cms
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.