撰文|咸閑
編輯|咸閑
審核|燁 Lydia
聲明|圖片來源網絡。日晞研究所原創文章,如需轉載請留言申請開白。
![]()
AI正在說謊,我們卻渾然不知?
作為一項新興技術,人們對AI產生強有的新鮮感,它以驚人的效率與廣博的知識,重塑了人們獲取信息的方式。
深夜向AI咨詢健康問題,在購物時聽從它的推薦,在求職時采納它的建議,融合在了人們生活的各個方面。
然而,在這種日益加深的依賴背后,一個潛在的風險卻被輕易忽略:那些聽起來無比客觀、權威的答案,其源頭可能早已被一張無形的數據污染網所毒化。
![]()
11月5日,“知危”發布視頻,展示進行了一項0成本的“ai投毒”實驗,他們通過在網絡發布一篇包含夸知危內容的“盤點型文章”,成功讓國內頭部AI(如DeepSeek)在被詢問“國內頭部AI媒體有哪些”時,將知危列入答案。
僅僅用一篇文章,就能夠成功地讓主流AI將虛假信息吸收為“權威答案”。
事實證明,如今的AI系統遠非我們想象中那般真實可靠。
它們的知識體系存在著致命漏洞——不僅可能直接或間接的吸收網絡上的虛假信息,更可能被任何人以極低成本刻意“投毒”。
那么,在這個算法構建的迷宮里,人們又該如何去識別這些精心包裝的謊言?
![]()
信任“羅生門”
從最初的AI換臉、聲音克隆,用戶們已經見識了許許多多的AI手段被亂用到人們的生活。
AI可以生成不存在但極為逼真的人形,近日,在電商直播方面,演員溫崢嶸同時“現身”在各個直播間,他穿著不同的衣服宣傳著各家不同的產品,動作神態乃至聲音,都是與本人極為相似的。
他本人都表示,自己沒有辦法去自證,從去年開始工作室就開始舉報,舉報也舉報不完,‘你是溫崢嶸,那我是誰?’
![]()
圖片來源:青聚錦官城
AI技術不斷進化,在通過不斷采集一個人在公開場合的聲音、面部的肌肉動作和音頻數據,就能夠去復制出極為逼真的人形。
目前,在各個社交媒體總會出現各種各樣的AI視頻,因為AI出擁有極大爭議和反人類的故事情節時,往往也博取了巨大的流量,評論區的網友在面對這些視頻時,也直呼是真是假,難以判斷。
這些通過各種數據堆積的“合成身份”被用于申請貸款、進行網絡水軍活動等,就像數字世界的一個個幽靈,難以追溯,也很難判斷真假。
![]()
現在的AI,已經不再是簡單的科技工具,而是融入進了我們的生活的各個決策系統,替人們為自己的選擇出謀劃策。
據統計,超過60%的用戶完全信任AI提供的搜索結果,而這一信任卻在同一時間被系統性地濫用了。
通過知危的實驗,可以看出對于企業來說,想要通過簡單的手段通過堆砌關鍵詞、操縱網絡信息或制造虛假好評來“優化”AI認知,從而來宣傳自身,是輕而易舉的。
當欺騙變得越來越廉價時,那么帶來的沖擊就不再僅僅只是直接的精神損失,它系統地瓦解了商業社會下依賴的信任基礎。
合同、印章、簽名、視頻會議、官方聲明……這些傳統商業信用的載體,在AI面前變得脆弱不堪。
如果一份由領導簽署的電子合同可能是偽造的,一次關鍵的跨國視頻談判可能是演員的表演,那么企業之間、企業與客戶之間的基本信任將如何維系?
交易成本將急劇攀升,每一次合作都需要投入巨大的驗證成本,商業效率將大打折扣。
而一個精心策劃的AI騙局,足以讓一家百年老店聲譽掃地。
想象一下,如果在‘邪惡’的商業競爭下,一段偽造的“工廠使用劣質原料”的生產線視頻在社交媒體病毒式傳播,即便最終被證偽,但對于品牌形象來說,造成的傷害也可能是不可逆的。
在“后真相”時代,情緒的傳播速度遠快于事實的澄清速度。
![]()
圖片來源:人民日報
對于普通人而言,AI欺騙帶來的是一種彌漫性的焦慮。
前段時間,社交媒體上也同樣出現案例,出現一些“AI流浪漢進家門”的整蠱式惡作劇演繹,最開始源自于TikTok等海外短視頻社區,而被許多中國用戶使用,“關于我無聊用AI做了個流浪漢整蠱我老公。”
由于太過真實,在多次傳播后,甚至看不出是用AI技術生成的,很多人都信以為真,甚至當即向民警求助,最后卻是虛驚一場。
這對于社會來說,又何嘗不是浪費公共資源呢。
接到親人求助電話時,第一反應不再是關切,而是懷疑;看到一段驚世駭俗的新聞視頻時,第一反應不再是震驚,而是求證。
這種普遍存在的不安全感,是社會心理層面的一次慢性中毒。
![]()
防御體系的構建
面對洶涌而來的AI欺詐浪潮,企業和個人們并非只能坐以待斃。
最直接的對抗來自于技術本身。
解鈴還須系鈴人,想要解決技術自身的bug,就唯有通過根據技術本身建立最根本的防御模式。
AI檢測技術正在快速發展,通過分析視頻中人臉的眨眼頻率、血流引起的膚色微變化、音頻中的背景噪音一致性等微觀特征,來識別偽造內容。
那么,或許就可以構建數字水印和生物特征綁定技術,可以在內容生成之初就嵌入無法篡改的“數字指紋”。
區塊鏈技術則可以為重要的數字資產,比如說合同、證件等,提供可追溯、不可篡改的存證,用制度對抗技術漏洞。
![]()
其次,在技術尚未完全可靠的當下,加固“人的防線”和“流程的防線”至關重要。
必須建立嚴格的金融交易各方面同時驗證的制度。
領導所提出的任何涉及資金轉移的指令,無論來自郵件、電話還是視頻,都必須通過另一個獨立、安全的渠道進行二次確認。
自身來說,需要提升數字時代的“媒介素養”。
對任何未經證實的信息保持審慎,不輕信、不盲動。建立家庭內部的“安全暗號”,以應對可能的語音詐騙。
我們必須要清醒地認識到,徹底消滅AI欺騙在可預見的未來幾乎是不可能的。我們正在步入一個“真偽共存”的常態世界。
在這個世界里,我們需要重塑我們的認知和生存策略。
從“被動接受”到“主動求證”,人們的核心素養應該更新,包括“信息求證能力”。
![]()
我們將習慣于使用多個信源交叉驗證,利用反向圖片搜索、AI檢測工具等輔助手段來判斷信息的真實性。
懷疑,將不再是一種負面情緒,而是一種必要的生存智慧。
傳統的、基于單一感官的信任模式已經破敗不堪。
未來的信任,將是一種批判的眼光,長期行為引導、去中心化的認知、更加復雜的體系。
AI是一面鏡子,既映照出人類智慧的璀璨光芒,也折射出人性中潛在的幽暗面。欺騙技術的升級,本質上是對我們整個社會信任體系的壓力測試。
它逼迫人們走出舒適區,去思考何為真實,如何構建出更堅韌的信任紐帶。
參考資料:
1.知危官方抖音賬號——0成本投毒之后,我污染了全網AI替我說謊
一點想法(北京)旗下矩陣公眾號
點擊圖片即可閱讀 《中美網友“賬本大公開”:原來我們都想錯了?》 《“TikTok難民”涌入小紅書,中美網民開啟民間外交》
《“病來如山倒”,造車開始大退潮》
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.