一、了解人工智能
1.大語言模型的技術(shù)原理
ChatGPT的技術(shù)原理,是充當(dāng)一個非常精妙的自動輸入補全工具,也就是預(yù)測下一個詞。比如你輸入“離離原上”這四個字,它一定會預(yù)測下一個字是“草”。因為離離原上草這句詩太經(jīng)典了,“離離原上”之后會接“草”這個字的概率非常高。但如果你問:“火星人吃香蕉,是因為?”那答案可就千變?nèi)f化了,因為在這種開放式的問題中,可能性實在太多了。而且大語言模型本身會故意加入一點“隨機性”,這樣才能讓每一次對話都有點差別,讓ChatGPT有點“人味”。
![]()
2.訓(xùn)練方法:預(yù)訓(xùn)練+微調(diào)
想讓人工智能像人類一樣理解和生成語言,第一步,就是給讓它閱讀大量的文本,這些文本可能來自網(wǎng)站、書籍、新聞等等,各種你能想到的數(shù)字文檔,都讓它讀一遍。這個階段叫做預(yù)訓(xùn)練。和早期的AI不同,大語言模型的訓(xùn)練是無監(jiān)督學(xué)習(xí),也就是說,不需要人為地一個字一個字去標(biāo)注什么意思,就讓AI自己看、自己學(xué),靠分析大量的例子,慢慢學(xué)會人類語言中的模式、結(jié)構(gòu)和上下文。
![]()
第二步是微調(diào),讓人參與進來,對AI進行更細致的訓(xùn)練。一種非常關(guān)鍵的微調(diào)方法,叫做人類反饋強化學(xué)習(xí),也就是讓人來幫AI“糾正答案”。 人工智能公司會雇一批人,閱讀AI生成的回答,然后做出判斷:這個回答準(zhǔn)不準(zhǔn)確?是不是符合人類的道德標(biāo)準(zhǔn)和表達習(xí)慣?有沒有包含暴力、色情、種族歧視等內(nèi)容?這些人類給出的反饋,會被用于額外的訓(xùn)練,微調(diào)人工智能的性能,讓它們的回答更適應(yīng)人類的偏好。除了這種“基礎(chǔ)微調(diào)”,很多公司還會根據(jù)自己的需求進行定制微調(diào)。比如,一家公司想用AI來當(dāng)客服,他們會提供人工客服的歷史對話和一些回復(fù)范例,讓AI的學(xué)習(xí)能更貼近公司業(yè)務(wù)。
3.人工智能訓(xùn)練過程中的倫理問題
倫理爭議很大程度上來自于人工智能所學(xué)習(xí)的預(yù)訓(xùn)練材料。大多數(shù)AI模型的語料庫,包括一些無需授權(quán)的公共資源,比如維基百科、政府網(wǎng)站等等。但除此之外,他們還從大量公開網(wǎng)站上抓取內(nèi)容,其中可能也包括了有版權(quán)的內(nèi)容。使用這些內(nèi)容訓(xùn)練人工智能,這種做法是否合法,不同的國家有不同的做法。即使人工智能的預(yù)訓(xùn)練是合法的,它也有可能是不道德的。大多數(shù)人工智能公司在抓取訓(xùn)練數(shù)據(jù)時,并沒有征得創(chuàng)作者的同意。
另一個更嚴(yán)重的倫理問題是——人工智能也有偏見,它繼承了人類社會中原本就存在的刻板印象。人工智能公司的計算機科學(xué)家們,決定了收集哪些數(shù)據(jù),作為人工智能的訓(xùn)練材料。這些科學(xué)家往往是受過良好教育的白人男性,他們在決定收集哪些數(shù)據(jù)時,會帶有自己的偏見。這就導(dǎo)致人工智能對世界的了解出現(xiàn)了偏差,因為它的訓(xùn)練數(shù)據(jù)根本不能代表互聯(lián)網(wǎng)人口的多樣性,更不用說代表整個地球了。人類反饋強化學(xué)習(xí)雖然能用來矯正偏見,但是也可能會引入新的偏見。AI還有一個公認(rèn)的弱點:它其實很容易被人操控。只要技巧得當(dāng),人類就能說服他們違背自己的規(guī)則進行操作,甚至突破設(shè)定的安全邊界。
![]()
降低人工智能帶來的風(fēng)險,需要一場社會各界共同參與的深度協(xié)作:人工智能公司應(yīng)該把透明度、問責(zé)機制和人為監(jiān)督等原則納入核心設(shè)計;研究人員需要被激勵去開發(fā)有益于社會的技術(shù);而政府需要制定合理的法律法規(guī),確保公眾利益高于企業(yè)的盈利動機。最重要的是,公眾需要接受人工智能教育,成為有判斷力的AI使用者。
二、用好人工智能
1.與人工智能合作的四項原則
原則一:始終邀請人工智能參與討論。在不違法、不違規(guī)的前提下,什么事都可以試著讓AI幫你一把。哪怕最后不用它的建議,至少你能慢慢摸清楚它的能力邊界,知道它擅長做什么,能怎么幫助我們。
原則二:成為回路中的人。面對越來越強的AI系統(tǒng),我們要積極參與,絕對不能把決策全甩給它。這樣做不僅能讓你保持自己的專業(yè)能力,也能避免出錯,同時確保AI給出的解決方案,是符合人類的價值觀和道德標(biāo)準(zhǔn)的。
原則三:像對待人一樣對待人工智能。人工智能不同于人類,但經(jīng)常以接近人類的行為方式工作,尤其是大語言模型,確實很“像人”,它們能完成人性化的任務(wù),也會像人一樣犯錯。所以,使用AI的時候,最好明確地告訴人工智能它是誰。指令越清晰具體,AI越知道怎么幫你,也越少出錯。
![]()
原則四:假設(shè)這是你用過的最糟糕的人工智能。永遠不要迷信人工智能,它很強大,但它也會犯錯,而且有時候會一本正經(jīng)地瞎編,這就是所謂的“幻覺”。我們必須保持警惕,把AI當(dāng)作一個非常努力但能力有限的助手。不過,人工智能的局限性是短暫的,現(xiàn)在的AI也許是你這輩子用過最菜的一版,以后它只會越來越強,越來越靠譜。所以,一邊對AI的能力保持懷疑,一邊對AI的發(fā)展保持開放,就是最好的態(tài)度。
2.與人工智能的合作方式
方式一:把人工智能當(dāng)成創(chuàng)作者。人工智能會產(chǎn)生幻覺,會瞎編亂造,但如果換個角度看,這就是創(chuàng)造力的一種表現(xiàn)。不妨試著邀請AI參與頭腦風(fēng)暴,幫你打破思維局限,生成新的創(chuàng)意或解決方案。大語言模型本質(zhì)上就是一種連接機器,它在詞語之間建立關(guān)系,不管它們乍看之下有沒有邏輯。再加上模型設(shè)計里故意加入的一點“隨機性”,它就能蹦出一些意想不到的新點子。
![]()
方式二:把人工智能當(dāng)成同事。我們可以把工作任務(wù)分成三類。第一類任務(wù)是只屬于人類的任務(wù)。只有人類能干,AI干不了,比如育兒、講笑話。第二類是委托任務(wù),你可以交給AI去做,但最后需要你自己把關(guān),仔細檢查。第三類任務(wù)是自動化任務(wù),那些對你來說不重要又特別耗時間的任務(wù),可以交給AI去做,比如過濾垃圾郵件、校對文稿。當(dāng)我們對工作進行重新分配,把繁瑣、無意義的任務(wù)交給AI之后,我們也許會更喜歡工作。
方式三:把人工智能當(dāng)成導(dǎo)師和教練。人工智能可以指導(dǎo)學(xué)生完成學(xué)業(yè),必要時還可以提供其他學(xué)習(xí)路徑。而且,人工智能導(dǎo)師可以提供個性化的指導(dǎo),根據(jù)每個學(xué)生的需求,因材施教,定制教學(xué)計劃。它還可以提供實時反饋,幫助學(xué)生根據(jù)自己的學(xué)習(xí)進度調(diào)整節(jié)奏。我們還可以利用人工智能開發(fā)訓(xùn)練系統(tǒng),讓他扮演教練,指導(dǎo)學(xué)生進行練習(xí)。
3.警惕和AI合作帶來的潛在風(fēng)險
首先,過度依賴人工智能,可能會讓我們放棄對工作的主動性和判斷力。當(dāng)人類放棄思考,把選擇權(quán)完全交給算法時,反而可能降低整體的決策質(zhì)量。
其次,人工智能可能會侵蝕我們的創(chuàng)造力和思維深度。如果我們總是接受AI給出的第一個想法,不再主動嘗試探索不同的視角或替代方案,久而久之,我們的大腦就會變得遲鈍,失去質(zhì)疑、反思和突破的能力。請記住,人工智能是強大的工具,但工具不能代替思考。
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.