2026年4月13日,斯坦福大學以人為本人工智能研究所(HAI)發布了第九版《AI指數年度報告》(《AI Index Report 2026》)。這份報告已成為全球追蹤AI發展態勢的標桿性文獻,被各國政府、研究機構和媒體廣泛引用。今年的核心發現可以用一句話概括:AI擴張的速度,已超過了圍繞它建立的所有系統(治理框架、評估方法、教育體系和數據基礎設施)的適應能力,無一跟上了技術本身的步伐。
報告共設九章,研發格局(Research and Development)、技術性能(Technical Performance)、負責任AI(Responsible AI)、經濟(Economy)、科學(Science)、醫學(Medicine)、教育(Education)、政策與治理(Policy and Governance)以及公眾輿論(Public Opinion)。其中,科學和醫學首次作為獨立章節出現,反映出AI正從計算機科學的“自留地”向更廣泛的知識生產領域深度滲透。
一、研發格局:產業主導、透明度下降與地緣版圖重構
報告顯示,2025年超過90%的重要AI模型由產業界生產,但最具能力的模型恰恰也是最不透明的——OpenAI、Anthropic和Google等頭部實驗室已不再公開訓練代碼、參數規模和數據集大小。這是一個值得警惕的趨勢,當前沿模型的能力評估越來越依賴開發者自我報告,而獨立驗證的空間卻在縮小。
在地緣分布上,中國在論文數量、引用份額和專利授權數量上均居全球首位,而美國在高影響力專利和重要模型產出上仍保持優勢(2025年美國產出50個重要模型,中國30個)。韓國以人均AI專利數領先全球。全球AI算力以每年3.3倍的速度增長,但幾乎所有前沿AI芯片都由臺灣一家代工廠(臺積電)制造,供應鏈的脆弱性不言自明。
另一個引人注目的數據是,AI領域的男女比例自2010年以來在任何國家都沒有出現實質性改善。技術在狂飆突進,但人才結構中的深層問題紋絲不動。
二、技術性能:能力趨同、基準飽和與“參差不齊的前沿”
報告用“參差不齊的前沿”(jagged frontier)這一概念刻畫了當前AI能力的矛盾狀態:Gemini Deep Think在國際數學奧林匹克競賽中斬獲金牌,但頂級模型讀模擬時鐘的準確率僅為50.1%。AI智能體在OSWorld測試中從12%躍升至約66%的任務成功率,但在結構化基準測試中仍有約三分之一的失敗率。
中美模型性能差距已實質性縮小。2025年2月,DeepSeek-R1一度與美國頂級模型持平;截至2026年3月,美國頂級模型僅領先2.7%。頂部模型之間的Elo評分差距壓縮至25分以內,競爭重心正從“誰更強”轉向成本、可靠性和特定領域表現。
更令人不安的是基準測試本身正在失效。原本設計為“持續數年”的高難度評估在幾個月內即被飽和,廣泛使用的評估集錯誤率高達42%,排行榜排名可能部分反映的是對平臺的適應而非真實能力。用什么尺子來量AI的進步,本身成了一個亟待回答的問題。
三、負責任AI:形式化進展與實質性困境并存
2025年AI事件數據庫記錄了362起事件,較上年的233起大幅增長。26個主流模型的幻覺率從22%到94%不等。在一項新的準確性基準測試中,當虛假陳述被包裝為“用戶的信念”而非“他人的信念”時,模型表現急劇崩塌——AI尚不能區分知識與信念。
企業層面,負責任AI的制度化建設在推進。AI專項治理崗位增長17%,沒有任何負責任AI政策的企業從24%降至11%。但知識缺口(59%)、預算約束(48%)和監管不確定性(41%)仍是主要障礙。一個更深層的發現是,安全、公平與隱私等負責任AI的不同維度之間存在內在張力,提升一個維度的訓練技術往往會惡化其他維度,而這些權衡取舍尚未被充分理解。
報告還指出,AI在英語環境下表現最佳,這一差距比全球基準所顯示的更大。在方言層面,差距進一步拉大。這意味著AI的能力紅利在語言和文化維度上是不均勻分布的。
四、經濟:史無前例的擴張速度與分配隱憂
生成式AI在三年內達到53%的人口級采用率,比個人電腦和互聯網都快。組織采用率升至88%。全球企業AI投資在2025年翻倍,美國私人AI投資達2859億美元,是中國的23倍。但報告同時提醒,僅看私人投資數據會低估中國的AI總支出,因為中國政府引導基金在2000至2023年間已向AI企業投入約1840億美元。
生產率提升集中在結構化、可量化的工作中。客服14%—15%,軟件開發26%,營銷產出50%。但需要深層推理的任務收益較小,且新近證據顯示,過度依賴AI可能帶來長期的“學習懲罰”,減緩技能發展。
最令人關注的是勞動力市場信號。在AI生產率增益最明顯的軟件開發領域,22至25歲的美國開發者就業人數較2024年下降了近20%,而年長開發者的數量仍在增長。報告將此稱為“煤礦中的金絲雀”。AI對初級崗位的替代效應可能已經開始顯現,盡管整體就業數據尚未出現大規模裁員的證據。
五、科學與醫學:從輔助工具到全流程替代
科學和醫學首次獨立成章,標志著AI在這兩個領域的角色發生了質變。在科學研究中,AI已從加速單個研究步驟轉向嘗試替代整個工作流程。在醫學領域,臨床AI工具從試點項目轉向更廣泛的部署,環境AI醫療記錄系統(ambient AI scribes)正在多個醫療系統中規模化應用。這一轉變的意義在于,AI不再僅僅是科學家和醫生手中的“好用工具”,而開始重塑知識生產和臨床決策的基本組織方式。這既是機遇,也對現有的同行評議、臨床驗證和倫理審查體系提出了根本性挑戰。
六、教育:需求爆發與制度滯后
超過80%的美國高中生和大學生已在學業中使用AI,但僅有一半的中學制定了AI使用政策,僅6%的教師認為這些政策是清晰的。大學計算機科學入學人數在2024至2025年間下降了11%,但AI相關研究生項目仍在增長。中國和阿聯酋已從2025—26學年起強制推行AI教育。
值得注意的是,人們正在正規教育體系之外大規模習得AI技能。AI素養技能的增長速度在多數國家超過了工程類AI技能,阿聯酋、智利和南非則是例外。這提示我們,AI教育的供給與需求之間存在系統性錯位。
七、政策治理:分化的全球圖景與“AI主權”的崛起
各國在2025年對AI采取了行動,但方向截然不同。歐盟AI法案首批禁令生效,美國則轉向去監管,日本、韓國和意大利各自通過了國家AI立法。超過半數新采納的國家AI戰略來自發展中國家。
“AI主權”成為國家AI政策的核心組織原則。報告從基礎設施、數據、模型、應用和人才五個維度構建了AI主權分析框架。2018至2025年間,歐洲和中亞的國家級AI超算集群從3個增至44個,而南亞、拉美和中東北非分別僅達到2、3和8個。數據本地化措施方面,東亞太平洋地區采納了77項,北美僅3項。AI主權的愿望是普遍的,但實現它的能力是高度不均衡的。
八、公眾輿論:樂觀與焦慮的共生
全球范圍內,認為AI產品利大于弊的受訪者比例從2024年的55%上升至2025年的59%,但表示AI令其緊張的比例同步升至52%。東南亞國家最為樂觀,印度的AI焦慮增幅最大。
專家與公眾之間的認知鴻溝尤為突出:73%的AI專家認為AI將對工作產生積極影響,公眾中這一比例僅23%,差距達50個百分點。在經濟、教育和醫療領域均出現類似分歧。但在選舉和人際關系方面,專家與公眾罕見地達成了共識,AI會帶來負面影響。在全球對政府監管AI的信任度調查中,美國在受調查國家中排名最末,僅31%。
結 語
中國在AI研究的量化指標上已居全球前列。論文數量、引用份額、專利授權、工業機器人安裝量均領先,在高被引論文中的份額從2021年的33篇增至2024年的41篇,DeepSeek-R1等模型在技術性能上已與美國頂級模型交替領先。但報告同時揭示了一個更復雜的圖景,中國的私人AI投資僅為美國的二十三分之一,前沿模型的生產仍高度集中于中美兩國,全球AI芯片制造依賴臺灣單一代工廠,而AI人才流向美國的趨勢雖在急劇下降(自2017年降幅達89%),人才的全球競爭格局仍遠未塵埃落定。
報告中幾個細節格外值得回味。1.AI在非英語環境中的性能衰減顯著,方言層面尤甚。這對中文及其方言多樣性意味著什么,需要認真對待。2.生產率提升集中于結構化任務、年輕初級崗位首當其沖的就業替代效應,以及過度依賴AI可能導致的“技能退化”風險,這些發現對中國龐大的年輕勞動力群體和快速推進的AI應用浪潮具有直接的參照意義。3.AI主權正在成為全球政策的核心敘事,而主權的實現不僅取決于算力和模型,還取決于數據治理、人才儲備和應用生態的綜合配置。報告中那張關于各國AI超算集群數量的不均衡分布圖,實際上畫出了未來全球AI權力版圖的底色。
或許最值得深思的是報告貫穿始終的那個判斷:技術能力的增長速度已經超過了人類度量它、理解它、治理它的能力。這不僅是一個技術問題,更是一個文明性的挑戰。對于正在全力推進AI發展的中國而言,這份來自斯坦福的年度“體檢報告”提醒我們,跑得快固然重要,但知道自己跑在哪里、跑向何方,同樣不可或缺。
馮巖,上海市研發公共服務平臺管理中心(上海市科技人才發展中心) 人才事業部。文章觀點不代表主辦機構立場。
◆ ◆ ◆
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.