2024年Stack Overflow開發(fā)者調(diào)查顯示,76%的程序員正在用AI寫代碼。但同一批人里,超過一半承認(rèn)被AI"騙過"——不是代碼跑不通,是AI一臉篤定地給了個(gè)根本不存在的方法名。
這就是"幻覺"(Alucina??o):AI生成假信息,但語氣像真的一樣。
人類撒謊需要?jiǎng)訖C(jī)。AI不需要。它甚至沒有"知道自己在說什么"這個(gè)概念。
大型語言模型(LLM,Large Language Model的縮寫)的工作原理,和你以為的完全不同。它不"理解"事實(shí),不"儲(chǔ)存"知識(shí),更沒有"真假"的判斷力。它只是在做一件事:根據(jù)前面出現(xiàn)的詞,預(yù)測(cè)下一個(gè)最可能出現(xiàn)的詞。
訓(xùn)練數(shù)據(jù)里有幾十億個(gè)句子。模型學(xué)到的不是"巴黎是法國(guó)首都",而是"巴黎"后面跟著"法國(guó)"的概率很高。當(dāng)信息充足時(shí),這套機(jī)制運(yùn)轉(zhuǎn)得像精密儀器。但當(dāng)遇到空白——某個(gè)冷門技術(shù)棧、某段模糊的歷史、某個(gè)2023年后才出現(xiàn)的產(chǎn)品——模型不會(huì)說"我不知道"。
它開始"編"
2023年,美國(guó)律師Steven Schwartz用ChatGPT寫了一份法庭文件。AI引用了6個(gè)判例,格式完美,邏輯通順。問題是:這些案子全都不存在。法官發(fā)現(xiàn)后,這位執(zhí)業(yè)30年的老律師面臨執(zhí)業(yè)資格調(diào)查。
不是他不夠謹(jǐn)慎。是AI的自信太有欺騙性。
同樣的陷阱在醫(yī)療領(lǐng)域更危險(xiǎn)。2024年初,有研究人員測(cè)試GPT-4對(duì)罕見病的診斷建議。在37%的案例中,AI推薦了根本不存在的藥物組合,或混淆了癥狀相似的兩種疾病。輸出格式是標(biāo)準(zhǔn)的醫(yī)學(xué)文獻(xiàn)風(fēng)格,附帶虛構(gòu)的參考文獻(xiàn)編號(hào)。
為什么修不好?
OpenAI從GPT-3就開始打補(bǔ)丁。RLHF(基于人類反饋的強(qiáng)化學(xué)習(xí),Reinforcement Learning from Human Feedback的縮寫)讓模型學(xué)會(huì)說"不確定"。檢索增強(qiáng)生成(RAG,Retrieval-Augmented Generation的縮寫)把模型和實(shí)時(shí)數(shù)據(jù)庫掛鉤。但幻覺率始終卡在15%-20%的區(qū)間,某些垂直領(lǐng)域更高。
根本矛盾在這里:用戶要的是"有用"的回答,不是"安全"的拒絕。一個(gè)頻繁說"我不知道"的AI,商業(yè)價(jià)值歸零。所以產(chǎn)品團(tuán)隊(duì)永遠(yuǎn)在走鋼絲——降低幻覺,但不能降低有用性。
Anthropic的Claude系列嘗試用"憲法AI"自我約束,設(shè)定行為邊界。Google的Gemini在醫(yī)療、法律等敏感領(lǐng)域強(qiáng)制觸發(fā)事實(shí)核查。但沒有一個(gè)方案能根除問題,因?yàn)?預(yù)測(cè)下一個(gè)詞"的架構(gòu)本身,就不包含事實(shí)驗(yàn)證的環(huán)節(jié)。
開發(fā)者正在自己想辦法
2024年涌現(xiàn)了一批"防御性編程"實(shí)踐。有人給AI輸出加強(qiáng)制溯源,每個(gè)結(jié)論必須附帶可點(diǎn)擊的原文鏈接。有人在關(guān)鍵決策鏈上設(shè)置"人機(jī)回環(huán)",AI只生成草稿,人類做最終校驗(yàn)。更激進(jìn)的團(tuán)隊(duì)干脆把AI輸出當(dāng)成"創(chuàng)意提示",所有內(nèi)容重新人工撰寫。
這些補(bǔ)丁有效,但都在增加成本。一個(gè)需要三重校驗(yàn)的AI助手,和直接雇實(shí)習(xí)生相比,優(yōu)勢(shì)還剩多少?
Meta AI研究負(fù)責(zé)人Yann LeCun多次公開批評(píng)當(dāng)前路徑。他認(rèn)為幻覺是LLM的結(jié)構(gòu)性缺陷,真正的解決方案需要"世界模型"——讓AI像人類一樣建立對(duì)物理世界的因果認(rèn)知,而非統(tǒng)計(jì)關(guān)聯(lián)。但這套架構(gòu)至少還需要5-10年。
眼下更現(xiàn)實(shí)的期待,或許是改變使用習(xí)慣。把AI當(dāng)作"語速極快、自信滿滿的實(shí)習(xí)生"——能幫你開腦洞,能處理格式,但任何事實(shí)性內(nèi)容都需要你親自核實(shí)。
那個(gè)被AI幻覺坑了的美國(guó)律師,后來在接受《紐約時(shí)報(bào)》采訪時(shí)說了一句話:「我以為它在思考。其實(shí)它只是在完成句子。」
你現(xiàn)在用AI寫代碼或查資料時(shí),會(huì)習(xí)慣性地打開第二個(gè)標(biāo)簽頁交叉驗(yàn)證嗎?
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.