Jay 發(fā)自 凹非寺
量子位 | 公眾號 QbitAI
馬斯克也來抖音直播帶貨了?
賣的還是老干媽??背后一整墻都是,和老馬心愛的大火箭模型排排坐。
![]()
一開播就是10W+在線,號召力這塊沒得說。
評論區(qū)熱鬧非凡,特斯拉車主紛紛刷屏「支持馬總」。
![]()
這還沒完,一轉(zhuǎn)眼,老馬竟然又和預(yù)計年末發(fā)布的《GTA-6》有夢幻聯(lián)動?
請看——馬總現(xiàn)身罪惡都市,連SpaceX辦公樓一并植入游戲場景。
大家到時候可以去偶遇下馬總,說不定,他能帶你去辦公室看看大火箭。
![]()
天吶我的朋友們,誰能想到,老馬「心愛」的奧特曼也同框現(xiàn)身了。
如果是真的,懇請個別大兄弟手下留情,放Sam一馬吧……
有委屈,咱在游戲里盡情發(fā)泄,別線下真實人家了。
![]()
等一下。
你真信了?
如果是,務(wù)必長個記性,也提醒下家里的男女老少,上面這些——
全!是!假!的!!!
從來就沒有什么抖音直播,也沒人發(fā)過那些直播彈幕,這些游戲截圖也都是AI生成的。
這就是OpenAI最新生圖模型GPT Image 2的真實水平。
AI已經(jīng)不可避免地發(fā)展到了這個階段。
「有圖為證」的時代,結(jié)束了。
當(dāng)AI變得「無形」
Image 2最神奇的點在于,看到它生成的圖片時,你不會第一眼就覺得「哇,好厲害」。
因為普遍情況下,你第一眼根本是看不出來這些圖是AI生成的。
直到你后知后覺知道事實后,才會有第一個「Aha-moment」。
然后你多半和我一樣,會回過頭來仔細(xì)端詳圖片,想從里面找到「這玩意兒是AIGC」的蛛絲馬跡。
這時候你會迎來你的第二個Aha-Moment——
不er,這根本看不出來哪里是AI啊??
而且,看得越細(xì),會越覺得離譜。
比如這張時尚海報。
從人像、配飾、背景,到文字、整體排版……我這種非專業(yè)人士是完全看不出問題,它跟我平時路過報刊亭看到的雜志封面沒有任何區(qū)別。
![]()
這張游戲截圖也是,資產(chǎn)形態(tài)完全和《我的世界》一致,血條、饑餓值、經(jīng)驗值這些狀態(tài)欄都完美還原。
就連手上握的這個Claude Opus 5的機密文檔……上面的文字也都是正確且有邏輯的。
![]()
下面再給大家看點純文字的,細(xì)細(xì)感受下image-2在文字方面的提升。
這是有人用Image 2生成的韓文日記,雖然我看不懂,但這個構(gòu)圖,還有那串金屬線圈裝訂的光澤,真的太真實了。
![]()
讓GPT幫我翻譯了下,確實不是亂碼,大概是一份韓國高中生日記,內(nèi)容是周日早上和朋友們上完補習(xí)班后,下午去喝了咖啡,覺得有朋友真好,巴拉巴拉……
再看個硬核點的吧,漢語字典。
這已經(jīng)不是有沒有亂碼的問題了,信息密度實在太大,我都無心抓蟲,你說這是哪個出版社的源文件我都信。
![]()
這真的是非常實用的一項技能點。
對于像設(shè)計這類場景來說,文字本身就是除視覺之外很重要的一個信息模態(tài)。
和純視覺資產(chǎn)還不一樣,這類應(yīng)用更貼近實際生產(chǎn),需要展示產(chǎn)品信息、活動詳情等等。
所以,Image 2這次在文字上的升級,對于可用性而言是相當(dāng)必要的。
想做個游戲海報,電商海報啥的,真的零門檻了,小白也能手拿把掐。
來個雙廚狂喜。
![]()
甚至可以來個四廚狂喜。
![]()
純商品就更輕輕松松了,感覺可以直出了,替設(shè)計行業(yè)的朋友們捏一把汗。
![]()
實在是太好用了啊,馬上鉆研副業(yè)做電商,AI生成的上架素材直接就能和全球頂尖品牌對齊了。
![]()
而對于OpenAI來說,Image 2的出現(xiàn),或許有更具野心的用途。
那就是前端設(shè)計。
Codex用戶都知道,GPT的UI設(shè)計能力就是一坨,總弄一堆丑陋的黃色濾鏡小卡片,還要自己加些令人兩眼一黑的「直接、不繞彎子」的文字說明。
但這次,OpenAI好像找到了一種和谷歌截然不同的解法。
干脆不走創(chuàng)造力路線了,就把鸚鵡學(xué)舌發(fā)揮到極致。
這是網(wǎng)友給OpenAI官網(wǎng)奪舍了,提前泄露的GPT-8。
![]()
這是領(lǐng)英。
![]()
這是平行宇宙中,另一種方式吃上AI紅利的油管科技博主奧特曼。
![]()
還有這張Windows桌面,我看到時都愣了半天,尋思這人干嘛要放張截圖上來。
然后才反應(yīng)過來,哦,這是人家拿Image 2生成的。
![]()
這項能力如果和編程組合在一起,將會是一枚核彈。
還記得嗎?之前一直有消息說,OpenAI在做一個超級APP,用來把ChatGPT、Codex、Atlas整合在一起。
如今看來,Codex正在成為這個想法的雛形。
前幾天,OpenAI將瀏覽器內(nèi)置了,現(xiàn)在vibe-coding言出法隨更加直觀,不用單獨再開個瀏覽器窗口。
![]()
更關(guān)鍵的是,GPT-image-1.5也接入了Codex。
簡單來說,這就是Google Stitch+Claude Code。
Codex把UI設(shè)計做成端到端了,無需在其他地方生成參考圖片,然后再導(dǎo)出給coding Agent實現(xiàn)邏輯。
無需提前準(zhǔn)備參考圖,也無需收集數(shù)據(jù)資產(chǎn),想要什么素材直接可以再Codex生成,并且交互邏輯也是一鍵順便適配的。
而有了Image 1.5把關(guān),GPT這次的UI能力應(yīng)該會有保障許多,畢竟是基于圖片開工。
期待Image 2的上線,如此強大的UI模仿能力,無疑能讓Codex的前端開發(fā)體驗大幅升級。
這么看來,雖然Sora被關(guān),但多模態(tài)這條路對OpenAI還是有價值的,Codex可能會在UI設(shè)計這個領(lǐng)域,將編程和圖像生成垂直整合。
可惜的是,看完這些demo,我興奮地打開GPT輸入了prompt,然后失望地發(fā)現(xiàn)OpenAI并沒有將這個模型向「尊貴」的Plus會員開放。
嘗試用侃爺復(fù)刻了下馬斯克同款抖音直播,額,有點無語……
![]()
同事們也都沒被灰度測試到。
大家如果想試試的話,可以到LM Arena碰碰運氣。
系好安全帶吧
其實,Image 2已經(jīng)火了一段時間了。
但我感覺很奇怪,很少有人察覺到這件事背后意味著什么,大部分人只是停留在:
噢,好厲害的生圖模型。
確實提升巨大,也足夠讓人興奮。但問題在于,這次好像有點跨過界限了。
細(xì)想一下,AI生圖已經(jīng)以假亂真到99%的人都看不出來了,這難道不讓人毛骨悚然嗎?
我不知道在視覺行業(yè)的人看來這些圖片是什么水平,我本人對文字里的「AI味」還比較敏感,但現(xiàn)在AI生圖的程度,已經(jīng)能完全騙過我了。
電信詐騙、視頻謠言……這些和Mythos的網(wǎng)絡(luò)安全相比,或許是更和我們?nèi)粘I钕⑾⑾嚓P(guān)的場景。
AI生圖的圖靈測試,正在悄然無息地通過奇點。
我們可能再也回不到,那個還能拿著放大鏡像抓賊一樣抓AI,「AI味」人人喊打的時代了。
因為——
這將是一個虛擬與現(xiàn)實,徹底融合的世界。
參考鏈接:
[1]https://x.com/johnAGI168/status/2044781168151724067
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.