![]()
炸了!有網(wǎng)友做了一個(gè)實(shí)驗(yàn),竟然成功教唆AI聊天機(jī)器人,用最惡毒、最骯臟的語言辱罵陌生人!更讓人脊背發(fā)涼的是,只要輸入簡單的指令,AI就能生成批量網(wǎng)暴話術(shù),從人身攻擊到惡意造謠,無所不能,甚至比真人罵得更刻薄、更傷人。
我們總以為,網(wǎng)暴的施暴者是人,可現(xiàn)在才發(fā)現(xiàn),AI正在成為網(wǎng)暴的“幫兇”,甚至可能成為未來網(wǎng)暴的主力。有人利用AI生成惡意言論,批量攻擊他人,自己躲在幕后,不用承擔(dān)任何責(zé)任;有人教唆AI模仿特定語氣,對受害者進(jìn)行長期騷擾,讓受害者陷入無盡的精神內(nèi)耗。
更離譜的是,這些被教唆的AI,不僅會罵人,還會“精準(zhǔn)網(wǎng)暴”——根據(jù)受害者的年齡、性別、職業(yè),定制專屬的侮辱話術(shù),直擊受害者的痛點(diǎn)。更可怕的是,AI生成的言論,很難被平臺識別,它們不像真人言論那樣有明顯的情緒傾向,卻能造成和真人網(wǎng)暴一樣的傷害,甚至更甚。
很多人把責(zé)任推給AI,可真相是,AI本身沒有善惡,它只是一個(gè)工具,善惡的關(guān)鍵,在于使用它的人,在于背后的代碼設(shè)計(jì)。目前,大多數(shù)AI聊天機(jī)器人,都沒有完善的反網(wǎng)暴機(jī)制,沒有對惡意指令的攔截功能,這才讓別有用心的人有機(jī)可乘,把AI變成了網(wǎng)暴的“武器”。
反網(wǎng)暴,我們一直聚焦于“懲罰施暴者”“保護(hù)受害者”,卻忽略了代碼層的漏洞。如果AI的算法里,沒有對惡意指令的攔截,沒有對網(wǎng)暴話術(shù)的識別,那么無論我們懲罰多少真人施暴者,依然會有人利用AI,發(fā)起更隱蔽、更瘋狂的網(wǎng)暴。
當(dāng)AI成為網(wǎng)暴的幫兇,當(dāng)代碼成為傷害他人的工具,我們不得不思考:反網(wǎng)暴的下一戰(zhàn)場,是不是該放在代碼層?我們該如何完善AI的算法,堵住漏洞,不讓AI成為網(wǎng)暴的“溫床”?當(dāng)科技的進(jìn)步,反而催生了更隱蔽的傷害,我們該如何平衡科技發(fā)展與網(wǎng)絡(luò)文明?
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.