華盛頓大學法學院加拉格爾法學圖書館館長卡拉·韋爾,目前正在為法學院學生開發一門關于人工智能倫理的選修培訓課程。在應用人工智能方面,律師群體似乎已經難以抗拒其誘惑。
![]()
這一前車之鑒似乎并未起到多大的警示作用。巴黎高等商學院研究員達米安·夏洛汀一直致力于統計全球范圍內因使用人工智能生成錯誤信息而遭法庭制裁的案例。他表示:“最近,我們在同一天內就記錄了來自十個不同法庭的十起此類案件。”
他分析指出,之所以會出現這種問題,是因為人工智能的表現過于出色,但尚未達到完美無缺的程度。相關案件數量從去年開始飆升。夏洛汀透露,這一增長趨勢目前仍在持續。據他統計,迄今為止全球已有超過1200起此類案件,其中約800起發生在美國的法庭上。
![]()
法官們對這一解釋并不買賬,并將其移交紀律處分。僅僅一個月后,類似的尷尬場景又在佐治亞州最高法院上演。
華盛頓大學法學院信息與技術副院長兼法學圖書館館長卡拉·韋爾對此表示:“這類事件早已見諸報端,令人驚訝的是,至今仍有人重蹈覆轍。”目前,她正在為感興趣的學生設計專門的人工智能倫理培訓課程。不過她也坦言,相關的倫理規范尚未完全定型。
韋爾認為,除了“必須確保信息準確”這一基本要求外,業界目前尚未達成更多共識。因此,對他們而言,準確性就是不可逾越的底線。
![]()
韋爾敲擊著辦公桌強調說:“無論生成式人工智能工具為你提供了什么內容,比如向你推薦某些案例,根據職業行為準則,你都必須親自去閱讀這些案例。你必須通過核實原件,來確保引用的內容準確無誤。”
![]()
帕特里斯承認,在梳理海量證據、判例法或處理合同方面,人工智能的實用性毋庸置疑。但他對目前向律師推銷的下一代產品保持警惕。這類被稱為“代理式”的系統,聲稱能夠包攬從頭到尾的所有法律工作。
他警告稱:“一旦中間的推演步驟被系統掩蓋,錯誤就會隨之產生。即使是那些態度端正且勤奮的人,也會因為沒有親自參與處理過程而遺漏關鍵信息。”
從更宏觀的角度來看,帕特里斯指出,隨著人工智能工具大幅縮短某些耗時任務的處理時間,傳統律師事務所按小時計費的商業模式正面臨嚴峻威脅。
![]()
他打趣道:“擺在面前的只有兩個選擇。要么律師們同意降低收費——這顯然是個笑話——要么他們開始尋找新的計費方式。我認為,他們很可能會逐漸轉向按項目收費的模式。”
如果這種轉變成為現實,可能會進一步加劇律師面臨的時間壓力,使他們更容易受到誘惑,直接采用人工智能生成的初稿。
“接下來的問題就很現實了:你是否愿意放慢腳步,留出獨立思考的時間?”帕特里斯拋出了這樣的疑問。他擔憂地表示,對于在人工智能無處不在的環境中成長起來的后代來說,他們是否還懂得停下來,徹底理清問題的來龍去脈,這無疑是一個隱患。
對于未來律師分析能力可能退化的擔憂,韋爾與帕特里斯深有同感。不過,她并不認同那些最為悲觀的預測。外界有聲音認為,未來的司法系統將完全自動化,人工智能將徹底取代人類律師。
![]()
“我認為真正的趨勢是,懂得如何高效且符合倫理地使用生成式人工智能的律師,將淘汰那些拒絕使用新技術的同行。”韋爾總結道,“這才是未來的發展方向。”
人工智能本身也已成為法律界重點關注的靶子。今年三月,知名人工智能聊天程序的開發商“開放人工智能公司”在伊利諾伊州聯邦法院遭到美國日本生命保險公司的起訴。該保險公司聲稱,一名女子因聽信了該聊天機器人提供的糟糕法律建議,對公司發起了毫無根據的訴訟。
該訴訟的核心指控之一,是認為“開放人工智能公司”在未取得執照的情況下非法從事法律服務。在給美國全國公共廣播電臺的一份書面聲明中,“開放人工智能公司”對此回應稱:“這項指控毫無事實根據。”
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.