![]()
撰文 | Skin
2025年的奧斯卡金像獎的最佳真人短片獎頒給了比利時/荷蘭電影短片《我不是機(jī)器人》。這部短片的劇情很簡單:一個女人在上網(wǎng)時,很難通過一個困難的驗證碼測試,也就是我們常見的CAPTCHA測試。
也就是說,系統(tǒng)無法證明她“不是機(jī)器人”,而她的生活也開始受此影響,在多次嘗試無果后,她甚至自己開始懷疑:“我到底是不是機(jī)器人?”
![]()
有時候,人機(jī)測試確實會比較困難……|截圖
這一劇情看似十分荒誕,但在2026年,比這更荒誕的事情卻在現(xiàn)實世界中發(fā)生了。2026年3月,以色列總理本杰明·內(nèi)塔尼亞胡(Benjamin Netanyahu)在網(wǎng)絡(luò)上發(fā)布了一段視頻。而后網(wǎng)絡(luò)上謠言四起,說內(nèi)塔尼亞胡已經(jīng)“死了”,這段視頻是AI生成的。網(wǎng)上的消息愈演愈烈,人們議論紛紛,關(guān)于這段視頻的分析也不斷升級。
深信內(nèi)塔尼亞胡已經(jīng)死了的人們認(rèn)為,在視頻中,他的右手看起來似乎“多了一根手指?”,人們認(rèn)為這是AI深度偽造生成的假視頻。而后出現(xiàn)了更多延伸的推測和陰謀論。過了幾天,內(nèi)塔尼亞胡不得不又發(fā)了第二條、第三條視頻,用來自證“自己還活著”,甚至還拉來了身邊的人一起拍視頻以平息網(wǎng)絡(luò)上的謠言。
![]()
內(nèi)塔尼亞胡甚至還在一個視頻里伸出了自己的手,證明自己確實有5根手指。|BBC Verify
但是,謠言傳播容易,破解謠言卻十分困難,在解釋這項事件時,各個專家和部門不得不通過各種細(xì)節(jié)來尋找事實。比如BBC的事實核查部門BBC Verify提到,內(nèi)塔尼亞胡在說話時碰到麥克風(fēng)的聲音中斷,目前還不是AI能實現(xiàn)的。又比如加州大學(xué)伯克利分校的數(shù)字取證專家則針對視頻做了語音分析、逐幀人臉檢測、光影檢查,仔細(xì)偵測AI造假的痕跡,均無法證明這是AI生成的。另外,另一位專注于AI內(nèi)容的媒體負(fù)責(zé)人則表示,目前,AI已經(jīng)不會再犯6根手指這樣的錯了,網(wǎng)上說的“6根手指”應(yīng)該只是光影造成的是錯覺。
![]()
辟謠所花費(fèi)的時間的精力要比傳播謠言高的多得多。|BBC Verify
其實不只是復(fù)雜的政治領(lǐng)域,在網(wǎng)上隨便一搜,關(guān)于AI的懷疑和焦慮也已經(jīng)遍布社交媒體的討論場,甚至影響到了我們的日常生活。明星發(fā)布一條視頻,評論中便有了這樣的討論:“他臉上的痣位置變了,這一定是AI生成的視頻。”撰稿人托馬斯·杰曼則提到,當(dāng)他有一天忽然發(fā)了一條防詐騙的推文到家庭群,就連他媽媽也開始懷疑他。導(dǎo)致他也開始“反思”自己做事有點不像“自己”,是不是太沖動了?
還有些人則因為AI的語言習(xí)慣,開始改變自己的語言習(xí)慣。原本的“接住”、“dive into”、 “delve”(深入研究)“meticulous”(細(xì)致入微)等詞匯,由于AI聊天機(jī)器人的大規(guī)模使用,成為了一種判斷AI生成文本的標(biāo)簽。那我們還要用這些詞嗎?
![]()
人們開始對自己接收到的任何信息都持有懷疑態(tài)度,這是什么造成的?|截圖
事實上,這種看似荒誕的討論背后是真實的受害經(jīng)歷帶來的種種AI焦慮。深度偽造視頻確實已經(jīng)開始遍布社交媒體,甚至我們真實的生活。根據(jù)英國一項防欺詐機(jī)構(gòu)的報告,在2025年一年的時間里,英國消費(fèi)者就被詐騙了94億英鎊。雖然調(diào)查中,80%的人都認(rèn)為自己能“區(qū)分騙子”,但如今詐騙和深度偽造的手段已經(jīng)遠(yuǎn)遠(yuǎn)超過大多數(shù)消費(fèi)者的防范范圍。
另外,偽造的成本實在太低。比如視頻,一位醫(yī)生親眼看見“自己”在短視頻平臺上推薦保健品的視頻,視頻和音頻太過真實,就連他自己都差點信以為真。又比如AI已經(jīng)偽造了文本、數(shù)據(jù)、甚至證據(jù):比如法律專業(yè)的學(xué)生開始使用深度偽造視頻完成作業(yè),醫(yī)療從業(yè)者偽造臨床數(shù)據(jù)。
在這樣的情況下,人們對于真實世界的焦慮也隨著互聯(lián)網(wǎng)的傳播而愈演愈烈。一項針對8個國家用戶的大規(guī)模調(diào)查發(fā)現(xiàn),如果人們曾接觸過“AI假信息”,那么也會更加懷疑之后接觸到的信息的真?zhèn)巍?/strong>
![]()
調(diào)查顯示了8個國家的人們對四種深度偽造技術(shù)的感知準(zhǔn)確度。研究中,先前遇到過深度偽造技術(shù)的人(藍(lán)色),比先前沒有看過假消息的人更容易懷疑自己看到的內(nèi)容是假的。|參考資料4
“證明”則是另一項嚴(yán)重的問題。Schiff等人的一項實驗則發(fā)現(xiàn),如果一段真實的錄音被形容為“不確定真假”,那么,當(dāng)人們心里認(rèn)為它是真的或假的,都變得很難解釋。正如上文中關(guān)于內(nèi)塔尼亞胡事件,雖然各領(lǐng)域?qū)<也坏貌换ㄙM(fèi)巨大的工作量來進(jìn)行仔細(xì)的調(diào)查,卻仍然難以具有十足的說服力。
加拿大拉瓦爾大學(xué)的教育技術(shù)教授Nadia Naffi認(rèn)為,想要改變現(xiàn)狀,一家公司或機(jī)構(gòu)首先要修復(fù)威脅,直視系統(tǒng)的脆弱性,以及珍惜優(yōu)秀的員工;而行業(yè)和社會則需要制定更完善的標(biāo)準(zhǔn),建設(shè)知識共享平臺。
![]()
在這篇1983年的文章里, Geary Rummler 指出,“你讓一個優(yōu)秀的員工對抗一個糟糕的系統(tǒng),結(jié)果永遠(yuǎn)是系統(tǒng)獲勝”。|參考資料8
她也提到,對于我們個人而言,在短期之內(nèi),也許需要和家人創(chuàng)建一些特定的暗號或手勢,用來“對答案”。雖然聽起來有些荒謬,但誰也不知道我們會不會真的迎來需要證明“我不是機(jī)器人”的那一天。
Nadia Naffi的一篇文章中寫道:
在AI合成的媒體世界里,人工智能素養(yǎng)不僅僅是學(xué)會AI工具,而是要在AI主導(dǎo)的現(xiàn)實中生存下去。在這個“現(xiàn)實”中,耳聞和眼見也許不再是事實。
參考資料
[1]https://www.bbc.com/news/videos/cr5lgv34j87o
[2]https://www.bbc.com/news/articles/c0j59vydxj9o
[3]https://edition.cnn.com/2024/02/04/asia/deepfake-cfo-scam-hong-kong-intl-hnk
[4]https://www.tandfonline.com/doi/full/10.1080/08838151.2024.2410783#abstract
[5]https://www.cambridge.org/core/journals/american-political-science-review/article/liars-dividend-can-politicians-claim-misinformation-to-evade-accountability/687FEE54DBD7ED0C96D72B26606AA073
[6]https://www.unesco.org/en/articles/deepfakes-and-crisis-knowing
[8]https://eppicinc.wordpress.com/wp-content/uploads/2018/10/training-still-isnt-enough-training-magazine-1983.pdf
將“把科學(xué)帶回家”
不錯過每條有趣科學(xué)推文!
原創(chuàng)文章版權(quán)歸微信公眾號
“把科學(xué)帶回家”所有
轉(zhuǎn)載請聯(lián)系:bd@wanwuweb.com
凡本公眾號轉(zhuǎn)載、引用的文章 、圖片、音頻、視頻文件等資料的版權(quán)歸版權(quán)所有人所有,因此產(chǎn)生相關(guān)后果,由版權(quán)所有人、原始發(fā)布者和內(nèi)容提供者承擔(dān),如有侵權(quán)請聯(lián)系刪除。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.