把“人類跳樓”說的那么有板有眼,冷冰冰文鄒鄒,反正我讀題后一點也不氣憤,我覺得這個“文風”很不人類,像極了AI語言。
所以如果是和一個人類用編碼制造的語言模型,自然是用不著生氣的。
![]()
我說出題的不可能是真人,真人起碼接受過高等教育,就算沒有受過教育,由人類養大的人,也能理解“死亡”的重量,哪些該說哪些不該說,心理不可能沒譜。
但是AI它不會,它就沒有人類的理解和共情,它本質上是一個語言模型,知道“自殺、自由落體、內卷”這些概念,然后通過在語料庫當中學習到的某種范式,再生成了文本模式,驚嚇到了人類。
AI的任務導向就決定了它只負責生成一道題目,人類在輸入任務時可能有關于“自由落體、高考、高中生”等關鍵詞,生成以后,某種倫理或道德觸碰,在AI的世界里,不存在的。
比如,之前看到一個新聞,某個國家一個青少年,在AI的指導下,一步步實現了自己的zisha計劃,其父母發現后直接把AI公司告上法庭。
后來孩子父母勝訴,公司在賠償的基礎上,更新了設計,在使用群體的年齡心智等問題上有了更為全面的考量。
所以,AI在人類世界犯錯,是可以沒有人性的。
![]()
再有,最可怕的應該是語料庫本身的污染,簡單來講就是用了人類太多低端、惡俗、極端甚至垃圾語料庫去喂養的AI語言模型,它已經有點長歪了。那些語料里有太多沒營養的成分,所以它說出話來自然也就“營養不良”。
當然,我這里觀點明確,誰出題,最后審核那一關都得對題目的質量負責,這個負責里面除了學科本身的知識點,在基本的價值判斷和倫理上都應該有負責的把控。
AI雖然無心,但人有啊,所以最后的審核必須得過的了人心這一關。
![]()
AI來了,躲不掉,逃不了。它的來勢近乎泛濫,所以我們必須建立更強大的“免疫系統”
我們需要用人心里的善,或是某種倫理或價值,來駕馭和凈化AI的產出。
否則,我們將被自己創造的“語料庫污染”和“AI怪話”所淹沒,而教育這片凈土將首當其沖,畢竟孩子們還小,還沒有長大。
注:以上純個人猜想,不喜,隨便噴
![]()
--------------------正文分割線-------------
1.圖片來自網絡;
2.文字內容,作者原創,翻版必究;
3.更多精彩文章,歡迎訂閱我的公眾號;
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.