![]()
新智元報道
編輯:傾傾
【新智元導讀】Anthropic剛給Claude裝了一塊「白板」,可以在對話里直接生成交互式圖表和流程圖,用戶點哪里都能展開。巧的是,OpenAI兩天前也上了類似功能,Google更是去年就動了手。三家不約而同押注同一件事:光會說不夠,AI得學會「畫給你看」。
3月12日,Anthropic官宣:Claude現在可以在對話中直接生成交互式圖表、流程圖和可視化內容了!
如果你問它關于元素周期表的問題,它能直接畫一個可點擊的周期表,每個元素點進去都有詳細信息。
![]()
更有意思的是,就在兩天前,OpenAI剛給ChatGPT上了類似的交互式可視化功能;
再往前翻,Google的Gemini去年11月就開始做這件事了。
一周之內,三巨頭全部發出了自己的新技術。這難道只是巧合?
如果給Claude一塊白板,會發生什么?
「給AI一塊白板」和大家理解的AI畫圖完全不是一回事。
Claude畫的東西,底層是HTML代碼和SVG矢量圖形。這相當于給Claude發了一塊白板,讓它邊說邊畫。
而Midjourney圖像生成,更像是一個程序員現場寫代碼、現場渲染。
和Claude已有的Artifacts功能比,「白板」的定位也不一樣。
Artifacts是作品。你可以下載、分享、反復用,它在側邊面板里,關了對話還在。
但這些對話內的可視化是臨時的,對話往下走可能就沒了。
如果你覺得圖不對,說一句,它會當場改正;如果你想深挖某個部分,點擊一下,它繼續展開。
這個功能的前身是一個叫「Imagine with Claude」的實驗。
當時,這個功能只給Max用戶體驗了幾天后就關閉了,很多人以為那只是個技術秀。
結果半年后,核心能力以這種更實用的方式落地了。
Inc.的記者做了個測試:讓Claude生成Timothée Chalamet爭議事件的交互式時間線。
結果它不僅做了完整的事件節點可視化,還自己加了一個「憤怒指數」儀表盤。
![]()
點擊查看完整示例:https://claude.ai/share/50b1325b-e9c7-4de1-a80c-eda6a4999975
另一個測試是讓它做寶可夢系列的視覺歷史,帶有游戲、影視、文化事件的分類篩選器,完成度相當高。
![]()
點擊查看完整示例:https://claude.ai/share/7ae16a77-dc6a-4b12-bd76-234b7ecec465。
這個功能默認開啟,免費用戶也能用。
目前支持Web端和桌面端,移動端暫時沒有。
三巨頭扎堆:是巧合,還是故意為之?
2025年11月,Google先坐不住了。
Gemini上線了交互式圖像,把教材里的靜態圖變成可點擊的學習工具。
![]()
到2026年初又推了「Guided Learning」模式,把圖像、視頻、測驗打包成一個學習伴侶。
2026年3月10日,OpenAI緊隨其后。
ChatGPT上線「動態視覺解釋」,覆蓋70+個數學和科學概念。
每周1.4億人拿ChatGPT學數學和科學,這個用戶基數夠大。
![]()
2026年3月12日,Anthropic上線。而且一出手就帶來福利:免費用戶也可使用。
對比之下,Google去年12月給Gemini Ultra上的高級交互式圖表和模擬,訂閱費每月200美元,門檻不低。
Anthropic一直在文本和代碼上猛打,音頻、圖像、視頻這些多模態方向基本沒投入,因為OpenAI和Google早就砸了重金。
現在Anthropic另辟蹊徑,不做圖像生成,用代碼畫圖,揚長避短,十分明智。
一條賽道,三種打法
三家雖然都在做交互式可視化,但思路差別非常大。
經典的教科書:OpenAI
ChatGPT高度結構化,70多個預設主題,從二項式展開到庫侖定律、從指數衰減到胡克定律,每個都有專門設計的交互模塊。
你不能讓ChatGPT可視化任意話題——超出這70多個主題就不觸發。
好處是做得精,專業感強,教學設計有章法;代價是范圍窄,靈活性差。
OpenAI擺明了說:先做教育,面向高中生和大學生,以后再擴張。
配合去年上線的Study Mode和QuizGPT,OpenAI在教育賽道上的布局已經相當完整了。
圖注生成器:Gemini
Gemini的路子像給一張現有的圖「開外掛」。
AI識別圖像里的關鍵元素,自動生成可點擊的標簽和解釋面板。
你點一下細胞圖里的高爾基體,就會彈出他的定義和功能。
本質上是圍繞圖像做文章,得先有圖才能交互。
但Google的優勢在生態:LearnLM教育模型、YouTube視頻、Google Classroom的打通,讓這個功能可以直接嵌入課堂場景,這是OpenAI和Anthropic都做不到的。
![]()
通用白板 :Claude
不限主題,不限場景,不要預設模板。
建筑受力分析、職業選擇決策樹、公司收入趨勢圖、RGB調色板......理論上,它能畫任何可以用代碼表達的東西。
而且這些可視化還能和Figma、Canva、Slack等第三方應用聯動。
這暗示Anthropic想的不只是聊天增強,而是一個連接生產力工具的視覺交互層。
今年1月Claude上線的Connectors功能讓它能直接操作第三方應用,現在加上可視化,拼圖又多了一塊。
當然白板也有白板的缺點。
The New Stack的記者讓Claude畫非塔臺機場的VFR進近模式圖,大體對了,但「中場側風進入」的標注位置搞錯了。
![]()
還有速度問題。一個復雜可視化可能要等30秒,而用搜索引擎找一張類似的圖只要3秒。
不過在Beta階段,這些都正常。
光會說已經不夠用了
三家同時押注可視化,可能意味著純文本回復正在觸及天花板。
AI聊天從2022年底火到現在,核心交互一直是你問我答,全靠文字。
但越來越多場景證明文字難以勝任。
解釋時間復雜度,一張圖比三段話清楚;呈現銷售數據,一個可拖動的圖表比一堆數字有感覺;教物理概念,讓學生自己拖參數看變化比對著公式發呆管用得多。
教育研究也早就說了,交互式學習比被動閱讀的理解效果好得多,這不是什么新發現。
之前的AI沒有畫的能力,只能用文字硬扛。
現在,三家同時把這個技能點亮了,區別只在切入角度。
而且各家的選擇都和自身生態有關。
OpenAI有1.4億周活學生用戶,做教育順理成章;Google有LearnLM和Classroom生態,做標注式學習是老本行;Anthropic代碼能力最強,用代碼畫白板是最自然的延伸。
Digital Trends的報道提到一個有意思的說法:Anthropic把這次更新定義為Claude「學會選擇最佳表達格式」。
有時候文字最好,有時候一張圖更好,有時候一個可交互的小工具最合適。
再加上今年上線的食譜卡片、天氣可視化、Figma/Canva/Slack等應用內交互,Claude正在從「文字助手」變成「多格式表達引擎」。
AI競賽持續了三年多,模型能力差距越來越小;跑分互有勝負,用戶感知越來越模糊。
誰更聰明拉不開差距,「誰更會表達」成了新戰場。
這一輪,三家答案出奇一致:讓AI學會畫畫。
不過話說回來,這些功能都還是早期。
Claude的標注偶爾出錯,ChatGPT的交互模塊覆蓋面有限,Gemini的高級功能需要200美元的入場費。
真正的競賽不在誰先上線,在誰能把「邊說邊畫」做成用戶根本不會注意到的自然交互。
2026年3月這一周,大概就是AI從文字機器變成表達工具的起點。
參考資料:
https://claude.com/blog/claude-builds-visuals
https://www.theverge.com/ai-artificial-intelligence/893625/anthropic-claude-ai-charts-diagrams
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.