亚洲中文字幕乱码亚洲-蜜桃成熟视频在线观看-免费中文字幕视频在线-中国五十路熟妇洗澡视频-亚洲av伊人啪啪c-国产精品成人一区二区-国产自拍视频一区在线观看-成人一区不卡二区三区四区-亚洲情精品中文字幕99在线

網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

王沛然:法律人工智能的推理模式及其缺陷克服 | 政法論叢202602

0
分享至

【作者】王沛然(法學博士,復旦大學計算與智能創(chuàng)新學院博士后,北大法律信息網(wǎng)簽約作者)

【來源】北大法寶法學期刊庫《政法論叢》2026年第2期(文末附本期期刊目錄)。因篇幅較長,已略去原文注釋。


內容提要:法律人工智能的推理模式需從技術與法學的雙重視角予以解析。形式主義的符號推理模式將事實與規(guī)范要素作為機械邏輯單元進行精密推理,但無法解決機器語言與其映射內涵開放性之矛盾。現(xiàn)實主義的概率推理模式以大模型的神經(jīng)網(wǎng)絡模擬人腦認知決策復雜性,可以理解概念間的微妙關聯(lián)并作出直覺性預測,但其表演式的推理、對價值判斷的統(tǒng)計學復制、真誠性與責任性的缺失意味著背離法治精神的風險。“神經(jīng)—符號”混合推理架構整合兩者優(yōu)勢以實現(xiàn)更聰明的計算,但由于缺乏共同體生活經(jīng)驗和感性體驗,其輸出結果仍非合乎正義的決斷。應以“有效人類監(jiān)督”為核心構建人機協(xié)同框架,通過可解釋、可干預、激發(fā)批判性思維的交互界面,在賦能法律人的同時維護人類的價值判斷主導權,推動法律人工智能的可信應用。

關鍵詞:大模型;法釋義學;法學方法論;檢索增強生成;微調;人機協(xié)同

目次

一、規(guī)則驅動的符號推理模式及其固有局限

二、數(shù)據(jù)驅動的概率推理模式及其內生風險

三、整合與超越:人機協(xié)同的法律人工智能應用構造

結論

如何讓人工智能“像法律人一樣思考”?這是構建“法律人工智能”(Legal AI)繞不開的核心議題。真正的法律人工智能,其核心能力顯然不止于一般意義上的自然語言處理,而必定是以法律規(guī)范為基準、以案件事實材料為對象的法律推理。在我國語境下,為法律推理提供規(guī)范化心智操作程序的,正是作為法學方法論的法釋義學。[其意義在于,盡管法律判斷在可靠性和精確性上很難達到數(shù)學證明或實驗測量那樣的程度,但法律人仍須遵循一套可被公共理性評價的解釋與論證秩序。在法律人工智能的開發(fā)與應用中,理想目標應是讓其推理模式符合法釋義學在方法論上的要求,讓其結論在法律職業(yè)共同體可接受的論證模式下得到證成。

當前,技術領域的研究多致力于機器性能指標的提升,如嘗試嵌入“法律三段論”等基礎邏輯結構,或通過指令微調、改進檢索策略等工程來提升特定法律任務的自動化效率,卻較少探討如何使系統(tǒng)契合法律人的思維內核。與此同時,法學界則更多關注人工智能應用于司法實踐的外部倫理與制度風險,卻鮮有進入機器原理層面探討與具體技術結構相匹配的治理方案。有的學者將法律人工智能運行模式歸結為“根據(jù)歷史裁判數(shù)據(jù)的預測”,有的學者則將討論限定在“依托固定邏輯規(guī)則與符號化編碼”的傳統(tǒng)進路下,這事實上忽視了不同技術路線的融合空間。技術上的簡化主義與法理上的悲觀主義相互交織,造成一種悖論:也即,人工智能技術飛速迭代,但法律人工智能的應用卻遲遲難以獲得法律共同體的信任。

對此,需從技術與法學相結合的視角出發(fā),將人工智能“為什么出錯、錯在何處、如何糾偏”從抽象擔憂轉化為具體工程問題進行解析。本文從類型化方法入手,將法律人工智能的推理模式劃分為規(guī)則驅動的符號推理與數(shù)據(jù)驅動的概率推理兩大理想類型,分別揭示其法理淵源及技術構造,并從法釋義學角度逐一診斷其缺陷;基于此,剖析整合兩者的“神經(jīng)—符號”混合推理路徑之優(yōu)勢與不足。筆者認為,在技術上可以對法律人工智能的聰明推理持樂觀態(tài)度,但人類不應向機器讓渡規(guī)范性事務的最終決策權。應以“有效人類監(jiān)督”為核心構建人機協(xié)同應用框架,通過可解釋、可干預、激發(fā)批判性思維的交互界面與人類介入節(jié)點的科學設定,合理配置機器的計算性分工與人類的價值性職責。由此,或可為法律人工智能的產品開發(fā)與應用治理提供一些參考思路。

規(guī)則驅動的符號推理模式及其固有局限

基于形式化規(guī)則的符號推理是法律人工智能的基礎技術范式,其理念在于將法律元素構建為符號系統(tǒng),并通過知識表示與邏輯演繹實現(xiàn)自動計算。對此展開解構分析,一方面要考察作為其理論內核的形式主義法學思想,以及作為其技術實現(xiàn)路徑的符號主義人工智能方法,并揭示兩者的內在匹配機制;另一方面需要審視該推理模式應用于真實法律場景時的固有局限,進而評價其適用邊界。

(一)形式主義法學是符號推理模式的法理根據(jù)

打造“法律適用的邏輯自動機”是一個經(jīng)久不衰的理想,其思想根源可追溯至19世紀的形式主義法學思潮。在大陸法系,隨著法國、德國等國相繼完成法典編纂,一個以立法權為核心的時代宣告來臨,法典及法律理論則被寄予表達精確傳遞之規(guī)則的厚望。在判例法系,形式主義思維同樣在彼時的司法實踐中產生重要影響。出于對人類理性的樂觀信念,形式主義法學追求構建語詞精確、邏輯嚴謹、規(guī)則完備的法律規(guī)范,形成清晰和確定的秩序,并將法律適用界定為純粹的邏輯演繹過程。博克爾曼對此有過中肯描述:“法官的制定法適用應該像自動機一樣運轉,它帶有的惟一特點是,運轉的裝置不是機械式的,而是邏輯式的自動控制”。形式主義法學框架下的法律推理至少依賴于兩大前提性支柱:其一,法律體系本身是邏輯上封閉自洽、無涉價值的符號系統(tǒng);其二,復雜的法律關系可以分解為具有確定邏輯關聯(lián)的基本單元加以分析。

對法律體系封閉性與自洽性的信念,當以德國傳統(tǒng)的概念法學為典范。面對法典化運動帶來的新秩序,以普赫塔為代表的概念法學家致力于構建如同幾何學般嚴密的法律科學體系。其著名的“概念金字塔”理論宣稱,所有法律規(guī)范都可以從少數(shù)幾個最高階的法律概念中邏輯地推演出來,形成無縫銜接、內部和諧的概念體系。依循這一視角,法秩序的基本概念是先驗、預設且固定的,任何法律問題都可以在這個封閉的體系內通過邏輯涵攝找到正確不變的答案。法律適用者的角色因而被簡化為“涵攝機器”:其任務僅僅是識別案件事實,將其作為“小前提”,套入作為“大前提”的法律規(guī)范中,從而機械地推導出結論。這種不考慮法律目的及意義脈絡的處理方式,雖然因脫離社會現(xiàn)實而備受批判,但它所描繪的“法律規(guī)范=公理,案件事實=輸入,司法決策=邏輯推論”的圖景,為后來基于規(guī)則的法律專家系統(tǒng)提供了最直接、最原始的程序構想。

如果說概念法學為“邏輯自動機”搭建了宏觀的體系框架,那么霍菲爾德的分析法學和凱爾森的純粹法學則為其打造了微觀的邏輯內核與精致的結構語法,使法律推理更具可計算性。霍菲爾德嘗試為法律關系建立一套精確的符號體系,他通過對司法判決語言的精細解剖,提煉出“權利/義務”、“特權/無權利”、“權力/責任”、“豁免/無權力”這四對最基本的法律概念。這些概念通過“關聯(lián)”(如“權利”必然對應他人的“義務”)和“對立”(如擁有“權利”則并非處于“無權利”狀態(tài))的邏輯關系,構成一個嚴密的、封閉的符號矩陣。其分析框架的革命性在于,紛繁復雜的社會關系與法律爭議都有望轉化為定義明確、相互關聯(lián)的邏輯符號組合并進行演算。換言之,現(xiàn)實的案件可以在霍菲爾德的框架下“翻譯”成基本法律符號之間邏輯關系的判定問題。正是基于對法律關系的形式化、原子化處理,霍菲爾德的概念矩陣為法律人工智能的推理建模提供了一條關鍵的理論路徑:既然法律關系能夠被分解為離散的、具有確定邏輯關系的符號單元,那么法律推理在本質上就可以被還原為符號計算。

凱爾森的純粹法學理論同樣以一種精致的方式延展了形式主義的思想路徑。其標志性的“規(guī)范階層構造”將法律規(guī)范體系刻畫為自上而下的效力推導結構,其中每一個下位階規(guī)范的效力都源自其上位階規(guī)范的授權,最終可追溯至作為整個法律秩序邏輯起點的“基礎規(guī)范”。由此,整個法律秩序成為邏輯環(huán)環(huán)相扣、效力上傳下達的等級體系,而司法判決作為最低階的個別規(guī)范,其正當性則取決于它是否處于其直接上位法所設定的可能框架內并通過合法的授權程序創(chuàng)造出來。凱爾森的理論雖然承認法官在一定框架內的解釋和選擇空間,因而比古典概念法學更具現(xiàn)實感,但其理論內核依然具有強烈的形式主義色彩。這是因為,凱爾森的純粹法學“拒絕對實在法進行評價”,在此視域下法律效力的維持僅依賴于其在規(guī)范等級體系中的位置,因而將法律秩序形式化為一套由效力傳導機制維系的邏輯句法系統(tǒng)。基于此,法律推理也就擁有了更為穩(wěn)定的運作結構與驗證機制。

從概念法學對封閉體系的追求,到霍菲爾德對法律關系的原子化分析,再到凱爾森對規(guī)范等級的邏輯建構,形式主義法學為規(guī)則驅動的符號推理型法律人工智能提供了從宏觀體系、微觀單元到結構語法的理論藍圖,在某種意義上塑造了人們對第一代法律人工智能的技術想象。

(二)演繹邏輯知識的專家系統(tǒng)是符號推理模式的技術支撐

將形式主義法學“邏輯自動機”的理想付諸實踐的嘗試,主要體現(xiàn)在以規(guī)則庫編碼為基礎的法律專家系統(tǒng)中。其核心構想是將法律規(guī)范體系視為公理集合,通過知識表示將法律規(guī)范與案件事實拆解為機器可讀的邏輯要素,進而實現(xiàn)自動化計算與決策。此種符號主義的技術路徑始于經(jīng)典邏輯的簡單應用,并因法律實踐的復雜特質而不斷走向更為精細化和多元化的邏輯建模。

一階謂詞邏輯是法律規(guī)范形式化的基礎工具。通過將法律語言分解為謂詞(描述屬性或關系)、個體詞(指代對象)、量詞(如“所有”、“存在”)和邏輯聯(lián)結詞(如“與”∧、“或”∨、“非”┐“蘊含”→),法律規(guī)范可轉化為精確的符號語句,以實現(xiàn)邏輯涵攝過程的可計算化。例如,“所有年滿18周歲的中華人民共和國公民,都享有選舉權和被選舉權”這樣的規(guī)范語句,可以被形式化為:x (是中華人民共和國公民(x)∧年滿18周歲(x)→享有選舉權(x)∧享有被選舉權(x))。規(guī)則的建模過程遵循著“拆分—審視—整合”的三步曲:首先將規(guī)則拆解為構成要件,然后獨立審視每個要素的內涵,最后將其重新整合成有助于推理引擎調用的邏輯形式。由此可以將分散的法律概念和事實要素結構化為語義網(wǎng)絡,為符號演算提供知識基礎和推理約束。此時,推理引擎通過邏輯規(guī)則的約束(如“年齡≥18”),可以從靜態(tài)的數(shù)據(jù)中自動推導出如關于特定對象的結論(如“享有選舉權和被選舉權”)。這種形式化方法的優(yōu)勢顯而易見,即賦予了法律推理清晰性、精確性和可驗證性。不過,這種經(jīng)典邏輯很快就遭遇了法律實踐的第一個重大挑戰(zhàn):規(guī)則的例外與沖突。

真實的法律體系遠非邏輯上單調的公理系統(tǒng),而是充滿了例外條款、優(yōu)先順序和在特定條件下可被推翻的缺省假定。例如,“所有年滿18周歲的中華人民共和國公民,都享有選舉權和被選舉權”是一般規(guī)則,而“依照法律被剝奪政治權利的人”則是推翻該規(guī)則的例外情形。經(jīng)典邏輯的單調性難以處理這種“可廢止”的特性,無法適應法律推理中隨著新證據(jù)出現(xiàn)而不斷修正結論的動態(tài)過程。申言之,法律推理的前提之“真”,并非絕對的客觀真理,而是基于現(xiàn)有信息的“被證成”狀態(tài);一旦出現(xiàn)新的反向證據(jù),原有的證成則可能失效。為解決此問題,非單調邏輯被引入法律適用的模型中,其承認新信息的引入會改變原有論述的證成結構,強調推理的動態(tài)性、暫時性、進化性和可錯性。這意味著可以在一個推理系統(tǒng)中引入新的、可能與先前結論相矛盾的信息,并根據(jù)預設的優(yōu)先級或偏好關系來動態(tài)修正結論。在技術實現(xiàn)上,結構化論辯框架等解決方案通過可廢止推理規(guī)則來表示法律論證,系統(tǒng)構建論辯圖譜來捕捉規(guī)則間的攻擊與支持關系,并引入優(yōu)先規(guī)則來規(guī)范沖突。當新的事實證據(jù)進入系統(tǒng)時,系統(tǒng)能觸發(fā)狀態(tài)更新,激活例外路徑而阻斷原有的一般規(guī)則推理,從而在計算層面模擬法律論證中結論被廢止或修正的過程。非單調邏輯的引入,使得符號主義的推理模型從靜態(tài)的演繹機器,向能夠應對論辯和變化的動態(tài)系統(tǒng)邁出了關鍵一步。

解決了規(guī)則的結構復雜性后,又一挑戰(zhàn)接踵而至:如何處理法律內容的規(guī)范性特質?法律不僅關注事實陳述,更關注“應當”“允許”“禁止”等規(guī)范指令。一階謂詞邏輯主要處理事實性命題的真假,卻難以完美匹配這些規(guī)范性概念。對此,道義邏輯填補了這一空白:通過引入模態(tài)算子,為權利、義務等核心法律概念構建形式化語言。這恰恰與前文所述的霍菲爾德分析法學框架相契合,其精煉出的基本法律概念構成法律規(guī)范的微觀邏輯內核,使得基于道義邏輯的推理具備了可計算性。例如,當系統(tǒng)識別到一份合同約定某主體“有權”做某事,而法律強制性規(guī)定其“不得”做此事時,一個集成了道義邏輯的推理引擎就能自動識別出此處的效力沖突,并提示人類用戶進行審查——這就使機器不再僅僅是描述性推理的工具,更成為能分析權利義務結構的規(guī)范性判斷系統(tǒng)。還有學者指出,基于可計算的道義邏輯,未來的人工智能體可以在不同情境中根據(jù)概括的法律規(guī)則自動推理出一系列派生具體法律義務,實現(xiàn)自主的法律決策。

然而,符號推理方法還面臨更深層的技術挑戰(zhàn):法律世界中充斥著大量諸如“合理期限”“重大過失”“情節(jié)嚴重”等概念,其邊界并非固定。傳統(tǒng)非真即假的二值邏輯在此失效了。法律人處理此類問題時,采用的是一種近似的、基于程度判斷的思維方式,恰如拉倫茨所言,“理解程序的開端通常是一種——有時還相當模糊的——意義期待,它經(jīng)常是在初次的匆匆一瞥中產生。”為了在計算系統(tǒng)中刻畫這種模糊思維,有學者將模糊邏輯作為處理法律中不確定概念的重要工具。模糊邏輯的誕生是對“精確性崇拜”的反思,它承認并試圖科學地處理世界的模糊性:引入“隸屬度”概念,即一個元素可以在0到1之間的程度上“部分地”屬于一個集合。例如,《行政強制法》規(guī)定行政機關不得在“夜間”實施強制執(zhí)行,但法律并未精確定義何為夜間,傳統(tǒng)邏輯只能給出一個僵硬的時間切點,而模糊邏輯則可以認為晚上8點“有0.6的程度”屬于夜間,而凌晨0點則“有1.0的程度”屬于夜間。通過定義隸屬函數(shù),模糊邏輯將對模糊概念的判斷,從定性的、主觀的解釋問題,轉化為可以進行定量分析和計算的數(shù)學問題,這使得符號推理模式在一定程度上緩解了形式的固化性。

可見,規(guī)則驅動的符號推理路徑通過不斷引入更精密的邏輯工具,逐步構建起日益細致的、試圖復刻法律人思維的形式化推理框架,其在維護法律推理確定性和統(tǒng)一性方面具有積極價值。

(三)符號推理模式無法解決機器語言與其映射內涵開放性之矛盾

從法學方法論的視角審視,符號推理的精致化并不能掩蓋其在模擬真實法律思維時的根本缺陷。

1.法律規(guī)則的涵攝適用難題

形式主義法學的“邏輯自動機”圖景以三段論邏輯為基礎內核,但以符號來演算法律規(guī)則的涵攝適用過程面臨現(xiàn)實困難。從法釋義學出發(fā),困難的根源在于,法律推理的真正痛點并非推導邏輯本身,而在于推導前提的建構。

一是小前提的建構,即將紛繁復雜的客觀生活事實,轉化為指向法律構成要件的法律事實。這一轉化過程是充滿解釋與建構的創(chuàng)造性活動,而非簡單的文本字段輸入。法律人的目光必須在案件事實與法律規(guī)范之間“來回顧盼”,通過這種雙向審視,案件事實中具有法律意義的方面才被“照亮”,法律規(guī)范的內涵也才在具體事實中得以澄清。例如,“張三穿一件紅衣服,因為心情不好喝了二兩白酒,在街上看到仇人李四,沖上去擼起袖子給了他一拳,李四鼻子流血了”需要經(jīng)由法律思維的篩選和提煉,轉化為“張三實施了毆打行為,致李四輕微傷,且具有主觀故意”。符號推理系統(tǒng)缺乏在紛繁事實材料與規(guī)范要件之間進行辯證“流轉”的靈活能力,只能處理被預先結構化、標簽化的法律事實,卻難以完成從原始、非結構化的生活世界到法律世界的關鍵一躍。

二是大前提的建構。涵攝過程面臨法律概念自身“開放結構”的挑戰(zhàn)。“法律經(jīng)常利用的日常用語與數(shù)理邏輯及科學性語言不同,它并不是外延明確的概念,毋寧是多少具有彈性的表達方式,后者的可能意義在一定的波段寬度之間搖擺不定……即使是較為明確的概念,仍然經(jīng)常包含一些本身欠缺明確界限的要素”。即便前文所述的模糊邏輯可以通過“隸屬度”函數(shù)將模糊判斷定量化,但這僅僅是將問題轉移,而非實際內在解決:只要系統(tǒng)最終仍須作出“構成/不構成”的二元判斷,就需要人為設定“去模糊化”的閾值——而這本身就是一個需要考量立法目的、社會環(huán)境與個案公正的價值決策過程,并非完全由機械邏輯所推導的結果。質言之,符號系統(tǒng)可以執(zhí)行基于閾值的計算,卻無法自主地、合乎情理地設定這個閾值。因此,在規(guī)則涵攝這一法律適用的基礎層級,符號主義路線就因無法處理從事實到規(guī)范的轉化以及概念本身的開放性而捉襟見肘。

2.法律原則的權衡適用難題

在法律推理的進階層級——法律原則的適用場景,符號推理系統(tǒng)同樣遭遇失靈。法律規(guī)則的適用方法是“涵攝”,而法律原則的適用方法是“權衡”。當不同的法律原則,如“契約自由”與“公序良俗”、“個人信息保護”與“公眾知情權”在個案中發(fā)生沖突時,法律人不是像適用規(guī)則那樣“全有或全無”地選擇其一,而是必須根據(jù)個案具體情況,對各項原則代表的價值進行衡量,以確定何者應在多大程度上獲得優(yōu)先。這種權衡過程是一種實踐智慧,要求法律適用者具備深厚的法學素養(yǎng)、豐富的生活經(jīng)驗和對社會整體價值秩序的把握。以代碼形式預先為千變萬化的情境設定硬性規(guī)則邏輯的符號推理模式無法企及。

盡管阿列克西等學者作出了以“權重公式”等方式將權衡過程形式化的努力,但這些公式僅憑本身并不能自動運行。公式中的每一個變量,如原則被違背的強度、原則的重要性以及對事實判斷的可靠性,其賦值過程本身仍是復雜的價值判斷和定性評估。符號系統(tǒng)可以作為計算機器,在人類專家為其賦予所有變量值之后機械地計算出結果;但它無法觸類旁通地理解價值內涵,更無法在面對全新的案件時,自主地、創(chuàng)造性地完成賦值這一核心的權衡步驟。因此,在處理法律原則適用這一更高階的推理任務時,純粹的形式化、符號式“邏輯自動機”難有用武之地。

3.小結

從整體上看,符號推理模式的內在矛盾在于,其試圖用封閉、確定的形式系統(tǒng)去捕捉開放、動態(tài)、充滿價值沖突的法律世界。無論是規(guī)則的涵攝還是原則的權衡,法律推理往往離不開從無限開放的社會事實中提煉法律關系、在多元沖突的規(guī)范價值中作出選擇的創(chuàng)造性勞動。這種勞動的內在機理,必然包含一種基于經(jīng)驗和直覺的心智過程。符號系統(tǒng)的失靈,恰恰在于它將法律人經(jīng)過復雜心智活動后形成的、作為論證流程的邏輯結構,當作了法律思維的全部,而這在很多場景下其實是顛倒了因果關系。菲利普·黑克的批判性觀點在此同樣適用:法律規(guī)范展現(xiàn)著現(xiàn)實利益沖突,概念建構的可能性有限、作用有限,司法裁決需通過帶有目的的利益衡量產生。同樣,公正的法律推理也并非從僵硬的符號規(guī)則中機械產生,而必須源于個案事實與法律價值的交融互動。

總之,從法釋義學的視角看,基于形式化邏輯規(guī)則和符號推理模式無法自主完成事實與規(guī)范的開放性映射、無法自主執(zhí)行價值原則間的權衡。這并不是通過引入更精密的邏輯工具就能彌補的,而是根植于形式主義法學與符號主義人工智能范式本身的機械性。要讓人工智能真正“像法律人一樣思考”,還需要嘗試其他不同的道路。

數(shù)據(jù)驅動的概率推理模式及其內生風險

在案件事實復雜、規(guī)范存在開放文本、決策受情境因素影響的條件下,法律推理結論往往難以固化為從規(guī)則邏輯出發(fā)的唯一必然解,而是常表現(xiàn)為帶有置信度的經(jīng)驗判斷。對此,數(shù)據(jù)驅動的概率推理模式代表了相應的技術范式,其核心思路是從海量歷史數(shù)據(jù)中學習特征規(guī)律,并以此為基礎進行概率性的分析與生成。法律現(xiàn)實主義思潮是概率推理模式的法理先導,以大模型為代表的連接主義神經(jīng)網(wǎng)絡則是其前沿的技術載體。

(一)現(xiàn)實主義法學是概率推理模式的法理根據(jù)

如果說規(guī)則驅動的符號推理模式可以從歐陸理性主義與形式主義法學尋得認識論資源,那么數(shù)據(jù)驅動的概率推理模式則可借助北美實用主義哲學及法律現(xiàn)實主義運動加以說明。兩者的分野標志著法律思想的某種轉向:從追求邏輯自足性轉向關注社會經(jīng)驗實踐,從“應當是什么”的先驗思辨轉向“實際上是什么”的經(jīng)驗預測。這為后來基于統(tǒng)計和概率的學習型人工智能進入法律領域奠定了理論基礎。

霍姆斯的名言“法律的生命不是邏輯,而是經(jīng)驗”常被視作現(xiàn)實主義法學的先聲。所謂“經(jīng)驗”,并不僅指個體直覺或主觀感受,而更接近一種歷史社會意義上的實踐積累,包含特定時代的道德情感、公共政策考量、制度運行方式以及法律共同體在長期實踐中逐步形成并被普遍接受的慣例與期待。正因如此,法律研究的對象不光是規(guī)范文本的邏輯結構,更涵蓋法律在社會生活中被理解與執(zhí)行的實際過程。霍姆斯在《法律之路》進一步提出“壞人預測論”:若從“壞人”的立場理解法律,法律知識在很大程度上表現(xiàn)為對國家強制力具體適用的預測——“法院在特定事實下將會做什么”的理性預期。在這一視角下,法律確定性不再主要來自形式邏輯的必然性,而更多是源于司法行為模式的可預測性。“預測”在方法論上對應一種概率化的表達,其正是對不同結果出現(xiàn)的可能性、相對穩(wěn)定性作出估計。而一旦法律推理的核心任務被界定為預測,那么收集和分析數(shù)據(jù)——即過往的司法判決經(jīng)驗,并進行統(tǒng)計意義上的概率分析,就變得順理成章。

羅斯科·龐德的理論進一步凸顯了法律推理的效果維度。龐德將法律理解為社會控制與協(xié)調的制度工具,其目標并非機械套用僵化規(guī)則,而是在多元且沖突的社會利益之間進行分類、衡量與調和,以盡量減少社會摩擦并增進社會利益;在他看來,法律適用的任務是在具體情境中審慎評估不同裁判方案對社會關系與制度運行的影響,并盡可能選擇更合乎社會目的的解決方案。這種利益衡量視角本質上要求法律推理具備處理模糊性、比較多重可能性的能力,即概率性的優(yōu)化思維。不同法律處理方案的社會效果并非必然可知,只能在有限信息下評估其產生預期效果的概率大小,并追求期望效用最大化的選項。

經(jīng)驗不是一成不變的,由其涌現(xiàn)的直覺亦可能不斷更新。在這方面,杜威的實用主義哲學為一種“以實踐檢驗規(guī)范”的法律觀提供了認識資源。杜威認為,規(guī)范并非永恒不變的真理,而是人類為了解決特定社會問題而設計的“工具”或“假設”;這些工具的有效性需要在具體情境中持續(xù)檢驗,并在經(jīng)驗反饋中不斷修正。由此,法律推理在某種意義上是一種持續(xù)的“探究”過程,法官在個案中不僅適用既有規(guī)范,也在檢驗該規(guī)范是否仍能恰當?shù)鼗貞兓械纳鐣F(xiàn)實,并在解釋與論證中對規(guī)范意義進行再建構。如果將法律規(guī)范視為“假設”,那么每一次裁判都是對該假設的驗證實驗;法律推理也因此成為在不斷變化的經(jīng)驗流中,動態(tài)調整先驗概率與后驗概率的過程。“假設—檢驗—修正”的循環(huán)不僅在認識論上確立概率推理的合法性,更在方法論上直接與現(xiàn)代機器學習的迭代機制相呼應:模型在誤差反饋中不斷校正參數(shù),法律在實踐反饋中不斷修正其規(guī)范含義,兩者皆是在概率的指引下逼近真理與正義。

綜上,在現(xiàn)實主義法學框架下,法律推理呈現(xiàn)為一種根植于社會經(jīng)驗、面向效果權衡、在反饋中演進的實踐,在理論深處暗含概率計算、概率優(yōu)化、概率修正的內核脈絡。這為推出以概率推理為核心的法律人工智能提供了重要思想資源。此時,從海量經(jīng)驗中學習并實現(xiàn)法律推理的機器,便成為順應趨勢的產物。

(二)模擬復雜性的神經(jīng)網(wǎng)絡模型是概率推理模式的技術支撐

數(shù)據(jù)驅動的概率推理模式,其技術內核在于通過機器學習算法,從海量歷史數(shù)據(jù)中學習特征并不斷塑造和調整神經(jīng)網(wǎng)絡模型,據(jù)此獲得分析、判斷、預測、生成最大概率后果的能力,進而完成相應的法律推理任務。法律人工智能研究也在新的技術浪潮下發(fā)生非形式邏輯的轉向。概率推理模式更接近法律人的真實思維——“貝葉斯法則+語言概率”:基于長期的法律訓練和經(jīng)驗,對案件形成主觀的“初始判斷”(先驗概率);根據(jù)不斷出現(xiàn)的新證據(jù)和信息,持續(xù)地、迭代地修正初始判斷,直至形成穩(wěn)固的“內心確信”(后驗概率)。

那么,如何將這種以貝葉斯法則為內核的“軟計算”過程轉化為可計算的模型?理論上,直接構建貝葉斯網(wǎng)絡似乎是一條直觀的路徑:作為概率圖模型,貝葉斯網(wǎng)絡的節(jié)點代表變量,有向邊代表變量間的條件依賴關系,其推理過程是基于概率論的邏輯演算,具有清晰、可解釋的優(yōu)點。但是,傳統(tǒng)貝葉斯網(wǎng)絡通常依賴專家預先定義變量節(jié)點及其依賴關系,其顯式規(guī)則的機械性決定了其難以真正模擬人腦神經(jīng)系統(tǒng)的復雜性。人類的思維,尤其是法律人在面對疑難案件時所依賴的“司法直覺”或“模模糊糊的感覺”,并非按部就班的串行邏輯演算過程,而更像是由數(shù)百億神經(jīng)元構成的大規(guī)模并行網(wǎng)絡在瞬間完成的整體性、復雜性涌現(xiàn)過程。

正是在這個層面,以大模型為代表的神經(jīng)網(wǎng)絡技術路線,展現(xiàn)出其作為“復雜性模擬器”的獨特優(yōu)勢,為實現(xiàn)法律人工智能的概率推理開辟了更廣闊的前景。大模型的深度神經(jīng)網(wǎng)絡更接近對人腦神經(jīng)認知系統(tǒng)的模擬,其知識并非存儲于顯性的規(guī)則文本中,而是彌散在由數(shù)千億個權重參數(shù)構成的隱性網(wǎng)絡,信息通過類似于神經(jīng)突觸強度的權重進行傳遞和轉換。其龐大的參數(shù)網(wǎng)絡編碼的不僅僅是詞語的字面含義,更是不同詞語之間、概念之間無數(shù)種微妙的關聯(lián)關系。這一能力的基礎在于高維度的嵌入向量:在模型內部,每一個詞語或概念都被映射為包含成千上萬個維度的數(shù)學向量;每一個維度都可以被看作是捕捉該詞語某一特定語義或語法特征的坐標軸。例如,“辯護”的某一維度可能代表“與法律相關”,另一維度代表“帶有積極情感”,還有一個維度代表“屬于動作而非實體”,等等。成千上萬個此類特征的協(xié)同組合,共同為每個概念勾勒出了其在語義空間中獨一無二的“坐標”。當這些高維向量在神經(jīng)網(wǎng)絡中經(jīng)過多層非線性變換時,模型便得以在龐大的向量空間中學習和表達概念間極其復雜的關系,這些關系遠非簡單的邏輯蘊含或因果鏈條所能概括。由此,大模型能理解諷刺、比喻,能感知文字的情緒色彩、把握字里行間的潛臺詞,使它在模擬人類處理非結構化信息時的整體感和靈活性方面,遠超傳統(tǒng)的符號式人工智能。

正因如此,當大模型“模擬”法律推理時,可以在某種程度上復現(xiàn)人腦中那種“感覺上對路”的快速、直覺式判斷過程,并識別出哪些信息建立了隱性而穩(wěn)健的關聯(lián),從而在復雜系統(tǒng)涌現(xiàn)的意義上實現(xiàn)類似法律人的權衡過程。以《民法典》中“公序良俗”原則的適用為例:“公序良俗”本身是一個開放性的、隨時代變遷而演進的概念,不存在精確形式化的規(guī)則。若要以傳統(tǒng)方法處理該問題,必須預先窮盡所有可能影響“公序良俗”判斷的因素并量化其關系,這幾乎是不可能完成的任務。相比之下,一個在海量法律文書、新聞報道、社會評論等語料上訓練過的大模型,其內部的權重網(wǎng)絡中已經(jīng)“內化”了關于社會主流價值觀、倫理道德觀念以及司法實踐中對“公序良俗”認定的無數(shù)種復雜模式。因此,在面對新的糾紛案件時,大模型能夠綜合考慮合同性質、當事人關系、行為社會影響、當前政策導向等眾多因素,生成一個基于概率的判斷。該判斷并非由機械的規(guī)則推導而來,而是其龐大神經(jīng)網(wǎng)絡對當前情境與歷史經(jīng)驗進行復雜模式匹配后得出的最或然結果。盡管決策輸出受制于訓練數(shù)據(jù)質量,但其模擬的正是一位具有特定經(jīng)驗的法律人在權衡“契約自由”與“社會公共利益”后作出的整體性、直覺性判斷。在此意義上,大模型可實現(xiàn)對法律思維中貝葉斯式“軟計算”過程的高度模擬,從而展現(xiàn)出處理多樣化情境的獨特潛力。

(三)概率推理模式無法消解“表演式推理”與法治價值的脫節(jié)

由神經(jīng)網(wǎng)絡支撐的大模型在模擬人腦直覺方面的能力令人矚目,但必須清醒地認識到,數(shù)據(jù)驅動的概率推理模式與法律人在法學方法論指引下進行的心智活動仍存在本質區(qū)別,必須予以充分揭示。這種區(qū)別根植于大模型作為“概率序列生成器”的技術本質,并由此引發(fā)了至少三個層面的內生風險。

1.推理幻覺與結論的不可靠性損害法的安定性

大模型的本質決定了其推理過程是一種“表演式推理”,而非“執(zhí)行性推理”,這帶來了推理“幻覺”與不可靠性的風險。當大語言模型生成一段看似邏輯嚴謹?shù)耐评碚撟C時,它并非在進行邏輯演算,而是在預測“基于我讀過的所有文本,在當前這個上下文之后,最應該出現(xiàn)的下一個詞是什么”。這意味著,它可能會僅僅因為在訓練數(shù)據(jù)中見過大量類似的文本模式,就生成一段看似合理、實則毫無根據(jù)的論證。在法律領域中,這種生成錯誤內容的“幻覺”是災難性的。一個小數(shù)點、法律規(guī)范要件、核心事實要素的錯誤,就可能導致對司法公正的嚴重損害。更棘手的是,大模型的輸出結果具有真假混合的特性,即可能僅僅在某些地方出現(xiàn)事實性錯誤或規(guī)范性錯誤,而其流暢的語言表達很容易掩蓋這些錯誤,使其極具欺騙性。檢查這樣的輸出結果是否正確,顯然極其耗費心神。此外,神經(jīng)網(wǎng)絡的柔性也意味著大模型概率推理的不穩(wěn)定性:同一個問題,用稍微不同的措辭提問,就可能得到截然不同的答案。可以說,這種內在的不可驗證性與脆弱性,是追求確定性與安定性的法律推理所無法接受的。

2.對價值判斷的統(tǒng)計學復制因缺乏共同體生活體驗而流于表面

法律推理是滲透著價值判斷的規(guī)范性實踐,無論是解釋模糊的法律概念,還是在相互沖突的法律原則之間進行權衡,法律人都需要深入探究法律規(guī)范背后的目的意義與價值秩序。然而,大模型僅是對歷史文本進行考古作業(yè),其本身并非合格的價值參與者。作為硅基神經(jīng)網(wǎng)絡,大模型無法從人類生活經(jīng)驗的層面真正“理解”正義或公平,它只知道在海量的語料庫中,“正義”這個詞通常和哪些詞語搭配出現(xiàn)。當其生成一段關于“公序良俗”的論述時,并非在進行真正的價值權衡,而是在復現(xiàn)其在訓練數(shù)據(jù)中見過的、與“公序良俗”高度相關的詞語序列——其決策的依據(jù)是數(shù)據(jù)的相關性,而非規(guī)范的妥當性。這就帶來一個致命的風險:大模型容易不加批判地復制并放大訓練數(shù)據(jù)中存在的歷史偏見。這使得法律推理從面向未來的、追求應然正義的規(guī)范性活動,退化為面向過去的、固化實然偏見的統(tǒng)計學過程。對此,有學者直言,基于歷史數(shù)據(jù)的“試探性學習”與人類基于理論的“自覺性學習”存在根本差異。

有人可能會反駁:大模型同樣可以寫出符合邏輯、充滿價值詞匯的論證理由,這和人類法官、檢察官有何不同?不同之處在于價值判斷的來源和性質。人類是社會價值體系的真實參與者。經(jīng)過多年的社會生活、法律教育、司法實踐,法律人的大腦神經(jīng)網(wǎng)絡一直沉浸于活生生的、動態(tài)演化的社會價值共同體之中。當法律人進行價值判斷時,實際上是在動用自己的人格,能動地將個案與社會共同體內在的、具有目的性的價值秩序進行連接。我們接受人類法官、檢察官的價值判斷,也是因為信任其是與我們共享基本價值、致力于在個案中實現(xiàn)這些價值的共同體成員。相比之下,大模型則是置身事外的“局外人”,只能模仿價值判斷的表層形式,卻因缺失共同體生活體驗而始終無法觸及實質。

3.真誠性的缺失無法滿足法治實踐的透明性與責任性要求

法學方法論中所謂“目光在事實與規(guī)范之間來回顧盼”,并不完全屬于那種不可知的神秘直覺過程,而是指向一種反思闡釋和理性重構的思維過程。法律人需要將其神經(jīng)系統(tǒng)“黑箱”中的心智過程,“翻譯”或“重構”成面向公共的、符合邏輯和法律論證規(guī)則的、可被他人理解和審查的論證鏈條。例如,法官需要論證,某種判決結果是因為事實A如何符合規(guī)范B的構成要件,或者在權衡原則C與原則D后,因為何種理由最終選擇了原則C優(yōu)先。法律教育和職業(yè)訓練就是在培養(yǎng)這種理性重構的能力。

然而,大模型本身無法進行真誠的理性重構,其結論生成過程和解釋生成過程是兩個獨立的、不甚可靠的黑箱運算。法治的精神要求法官必須忠實地披露裁判據(jù)以形成的理由,真誠地相信其判決理由的有效性。這種真誠性要求對于神經(jīng)網(wǎng)絡大模型而言很可能是難以企及的。在技術上,大模型所謂的“思考”和“思維鏈”主要是為豐富其上下文和激活有用的統(tǒng)計模式,影響下一個Token的生成。因此,我們無法完全確定大模型給出的看似合理的解釋,是否就是它得出結論的真實路徑;其結論和理由可能都是幻象。如果將法律推理矮化為僅僅是為讓結論看起來合理而編造的說辭,就從根本上破壞了法律實踐的公正與理性。

進一步而言,正是基于真誠的理性重構,法律實踐是各參與方都需要負主體責任的過程,尤其是法官、檢察官必須對其決策承擔個人和制度上的責任。當法律人在某份文書上署名時,他是在用自己的職業(yè)生涯、社會聲譽乃至作為法律共同體一員的整個“存在”,為這份文件背書——這是其獲得社會信任的重要基石。然而,大模型沒有“人格”,沒有“存在”,沒有“聲譽”,更無法“擔當”。當它出錯時,責任可能在語料構建、技術開發(fā)、系統(tǒng)設計、應用過程等環(huán)節(jié)被無限地擴散,最終也就意味著責任的虛無。這無疑意味著對法治實踐嚴肅性和權威性的侵蝕。從根本上而言,我們接受人類司法者的自由心證,是因為其附著在具體的人格之上,而該人格嵌入在社會責任網(wǎng)絡之中。相比之下,大模型的“存在”是漂浮的、無根的,其本身無法對其輸出的任何一句內容擔負責任。

4.小結

綜上,數(shù)據(jù)驅動的概率推理模式雖然在技術上模擬了法律思維的某些表層特征,但其內在的“表演式推理”、統(tǒng)計性價值判斷、不可還原的“黑箱”以及責任主體的虛化,使其與法釋義學所堅守的規(guī)范性、透明性和責任性等核心法治價值產生了深刻沖突。法律推理是一種“規(guī)范—目的論”的方法,必須追求在個案中實現(xiàn)法律的內在價值和目的。但是,作為依循“統(tǒng)計—概率論”的工具,單純的神經(jīng)網(wǎng)絡大模型只關心文本內容的上下文合理性,并在預測與生成時輸出基于訓練數(shù)據(jù)的最大概率結果。雖然法律推理的思維模式在認知科學層面具有概率性特征,但法律推理并不完全等同于冷冰冰的概率,歸根結底還是要深嵌在人類的價值世界、論證實踐和社會責任網(wǎng)絡之中。因此,試圖用非理性的、不透明的、不負責任的機器神經(jīng)網(wǎng)絡概率,完全取代理性的、可證成的、負責任的人類司法心智過程,不僅在技術上是不可靠的,在法治理念上更是不可接受的。

整合與超越:人機協(xié)同的法律人工智能應用構造

符號推理模式因其形式僵化而無法處理法律的開放性和價值權衡,但體現(xiàn)著法律邏輯的理性;概率推理模式因其“幻覺”“表演式推理”等問題而與法治精神相悖,但其靈活的語言能力不容小覷。將符號式的邏輯框架與神經(jīng)網(wǎng)絡大模型的強大數(shù)據(jù)處理能力相結合,是構建下一代智能、高效且可信的法律人工智能系統(tǒng)之關鍵。在兩者的優(yōu)勢整合之上,最終還需超越純粹的技術方案,邁向以人類為中心的人機協(xié)同應用框架。

(一)以混合推理實現(xiàn)聰明計算,但仍須補足價值能動性

神經(jīng)網(wǎng)絡大模型與傳統(tǒng)的符號機器相結合,在技術上指向“神經(jīng)—符號”混合式推理架構。這種模式可以在知識來源的外部錨定與推理過程的內部規(guī)訓兩個層面提升法律人工智能系統(tǒng)的可靠性,使其既能言之有據(jù),又能思之有理。

1.外部知識的錨定,以此保障法律推理之論據(jù)的真實性

法律推理所使用的論據(jù)必須真實可靠。為緩解神經(jīng)網(wǎng)絡大模型固有的“幻覺”問題,引入檢索增強生成(Retrieval-Augmented Generation, RAG)這種兼具“神經(jīng)—符號”特征的混合系統(tǒng)架構,成為開發(fā)法律人工智能的有效途徑。其核心機制在于為生成過程引入外部知識:在模型輸出法律判斷或論述之前,強制其從可信的外部知識庫中檢索相關信息,并將這些顯式的、確定的文本作為參考依據(jù)。由此,數(shù)據(jù)驅動的概率推理將符號化的信息作為基礎,從源頭上提升了系統(tǒng)輸出內容的可靠性。例如,RAG能夠有效增強系統(tǒng)對“法言法語”的理解能力,從權威詞典、法律定義條款或司法解釋文件中精準檢索特定術語的含義,使大模型從專業(yè)領域視角理解特定法律概念,而非憑空臆測。

然而,必須指出的是,普通的基于向量庫的RAG雖然引入了外部知識作為大模型推理的上下文,但其“閱讀文檔并生成答案”的過程本身仍是基于概率的Token預測,尚未完全實現(xiàn)邏輯層面的符號推理,因此還不能算是完整意義上的“神經(jīng)—符號”人工智能。實踐中,法律推理任務往往涉及復雜的關系梳理、全局性分析,并且需要極高的邏輯可解釋性,而普通RAG的扁平化檢索難以處理具有復雜拓撲關系的數(shù)據(jù),往往只能給出語義相近片段的拼接式回答,這就可能導致系統(tǒng)在證據(jù)關聯(lián)與規(guī)則適用上產生不可解釋的推理跳躍。對此,更高階的GraphRAG——基于圖譜的檢索增強生成技術,未來有望展現(xiàn)其應用價值。GraphRAG通過引入結構化的知識圖譜,將非結構化的文本轉化為具備明確邏輯關聯(lián)的節(jié)點與邊,賦予了模型“識圖”與“顯式推理”的能力,使其更接近理想的“神經(jīng)—符號”混合形態(tài)。在事實梳理層面,GraphRAG可以從海量材料中識別出主體、資金等多重要素之間的隱秘連接,發(fā)現(xiàn)傳統(tǒng)RAG難以察覺的環(huán)形結構或多跳關聯(lián),輔助還原案件事實全貌。在法律規(guī)范層面,不同的條文可以界定為圖譜中的“實體”,而它們之間的“引用”“依據(jù)”“修訂”等邏輯關聯(lián)可定義為“關系”,類似的結構化設計使得系統(tǒng)能夠沿著這些邏輯關系進行更精確的推理,而不僅僅是模糊地尋找語義相關的文本。總之,GraphRAG以圖結構將事實要素與規(guī)范關系顯式化、可追蹤化,進而使法律人工智能系統(tǒng)在發(fā)揮大模型靈活理解能力的同時,保證其推理建立在堅實穩(wěn)固的論據(jù)基礎上。

2.內部邏輯的規(guī)訓,以此塑造法律推理之過程的自律性

如何組織和運用法律推理的論據(jù),考驗的是法律思維,而法律思維是一種內化于腦海中的隱性知識。法律人的法律思維是經(jīng)由數(shù)年的專業(yè)訓練后習得的本領,這些本領早已化為大腦中特定的神經(jīng)元連接強度與突觸傳遞模式,使得法律人能夠近乎本能地識別邏輯謬誤與論證斷裂。對于法律人工智能而言,要讓大模型從內部神經(jīng)參數(shù)的層面習得法律推理的思維模式,關鍵手段是以微調(Fine-tuning)技術對大模型進行深度的專業(yè)化改造。這不單純是讓大模型通過高強度閱讀來熟練記憶法條,更是要通過數(shù)據(jù)訓練調整大模型內部神經(jīng)參數(shù)的權重,重塑其生成文本時的概率分布,從而使其“本能”地選擇符合法律推理邏輯的輸出路徑。這種將思維邏輯規(guī)則轉化為神經(jīng)網(wǎng)絡參數(shù)約束的思路,在神經(jīng)網(wǎng)絡訓練原理上已有跡可循。例如,有學者將民間借貸案件的推理邏輯規(guī)則轉化為神經(jīng)網(wǎng)絡訓練過程中的可計算的差異損失函數(shù),當模型的預測結果與這些邏輯規(guī)則相悖時,該損失函數(shù)便會通過反向傳播機制對模型的內部權重施加影響,從而使模型學習并趨向遵守這些知識約束。這種方法相當于在模型龐大的概率空間中設定了邏輯邊界,允許模型在邊界內利用數(shù)據(jù)進行靈活的模式學習,同時避免其最終輸出與基本的推理規(guī)則相抵觸。

以此類推,對大模型進行的法律領域微調,事實上就是對其原本發(fā)散的生成概率分布進行定向收斂和“規(guī)訓”,由此,神經(jīng)網(wǎng)絡內部的參數(shù)約束在模型生成文本的每一步概率計算中持續(xù)發(fā)揮作用,從源頭上降低了產生推理謬誤的可能性。申言之,理論上也可以運用微調技術將法釋義學的思維方法內化為模型自身的推理習慣。例如,法律解釋方法的運用順序是相對固定的,即“文義—體系—主觀語義—主觀目的—歷史沿革—客觀目的”解釋。利用高質量語料樣本對大模型進行反復訓練,可以提高模型在推理初期調用文義解釋相關語詞和邏輯的概率權重,同時抑制其在論證初期直接跳躍至目的解釋的傾向;久而久之,這種概率分布的重塑會讓機器形成一種類似法律人的職業(yè)自覺,自動遵循由字面含義向體系與目的逐層遞進的思考慣性。

3.技術整合無法觸及“情—理—法”的“情”維度

將不同技術策略相結合,理論上可以構建出較為完備的法律人工智能系統(tǒng),融合符號推理的嚴謹性和概率推理的靈活性。但需要警惕的是,上述技術組合仍不能完全替代人類作出的法律推理。從法學方法論的視角審視,即便是找準了事實規(guī)范信息、遵循了法律思維邏輯的“神經(jīng)—符號”混合模型,其所能達成的也至多只是“理—法”維度的“更聰明的計算”,卻非合乎正義的最終決斷。

質言之,盡管將符號推理和概率推理結合起來可以克服兩者的部分缺陷,但人工智能系統(tǒng)從未切身參與過社會生活、無法擁有生物意義上的感性體驗,無法真正實現(xiàn)“情—理—法”的融合并作出人類主觀意義上的價值判斷。“情”包含對當事人處境的共情、對社會正義的感知以及對價值沖突的切身體悟,而這些都無法通過機器模擬獲得。“人類的觀點、判斷和理解是在歷史和社會的環(huán)境中生成的,因為人就是歷史性和社會性的存在。”但人工智能軟件卻并非如此,它懸浮于歷史之外、抽離于社會之上,既不會因個體遭遇而調整道德直覺,也不會在面對倫理困境時經(jīng)歷內心掙扎,其所謂的“理解”并非源于親身經(jīng)歷的意義建構,而只是數(shù)據(jù)的統(tǒng)計投影。

因此,“神經(jīng)—符號”混合推理系統(tǒng)可以處理形式化規(guī)則,卻無法真正理解規(guī)則背后的價值精神;可以報告歷史案件中多數(shù)裁判者的傾向,卻無法回答當下個案中何種選擇才是“正當?shù)摹奔啊吧鐣山邮艿摹薄w根結底,由于具身性、體驗性和主體性的缺失,法律人工智能終歸是在由數(shù)據(jù)和規(guī)則所定義的虛擬世界中運行,缺乏與真實社會價值秩序進行能動性連接的能力。在此意義上,技術路線整合所達到的高峰,對于人類規(guī)范性判斷而言可能僅僅是個起點。

(二)價值能動性依賴于以“有效人類監(jiān)督”為核心的人機協(xié)同

由于在機器的計算邊界存在不可逾越的價值鴻溝,因而將“人”重新請回決策回路、構建人機協(xié)同模式,成為不言自明的選擇。

人機協(xié)同的前提在于根據(jù)任務屬性科學劃定人機分工邊界。法律實踐包含多個不同性質任務的集群:法律發(fā)現(xiàn)與信息檢索、證據(jù)梳理與事實認定、邏輯推演與規(guī)范適用、論證說理與決策生成,這其中又夾雜著模糊概念解釋、原則權衡與價值判斷等內容。總體上,這些任務可以劃分為兩大類:一是偏向客觀的、計算密集型的可形式化任務,如法律檢索發(fā)現(xiàn)、證據(jù)總結提示、基本事實梳理、簡單規(guī)則涵攝等;二是偏向主觀的、價值密集型的裁量任務,如模糊概念解釋、爭議觀點權衡、作出最終處理決定等。整合技術優(yōu)勢后的“神經(jīng)—符號”混合推理系統(tǒng),其角色仍應被限定為服務于計算密集型任務的有限認知外包工具:其符號模塊可以輔助進行精確的要素檢索和邏輯一致性檢查,其神經(jīng)模塊則可以輔助處理海量的非結構化數(shù)據(jù),并給出基于歷史數(shù)據(jù)的概率性提示。但系統(tǒng)輸出的形態(tài)不能是“決定”,而應是“圖譜”“報告”“方案”“選項”“提示”等輔助內容。質言之,法律人工智能可以模仿人腦智力處理價值無涉的事務,但不應完全取代規(guī)范意義上的人類倫理心智。其應定位為增強法律人認知能力的“伙伴”或“助理”,目的是讓法律人從繁瑣的重復性勞動中解放出來,得以將更多精力投入到最核心的、不可被機器替代的價值判斷與規(guī)范創(chuàng)造活動中。人類的決策權不能被剝奪,“因為法律是我們的作品,也必須繼續(xù)是我們的作品。”

由此可以明確法律人在人機協(xié)同中的監(jiān)督主導定位。從人機交互的類型學出發(fā),人類可能承擔糾正性、韌性、正當性、尊嚴性、問責性、象征性、摩擦性、占位性、接口性等不同的角色。在法律人工智能應用場景下,人類監(jiān)督角色至少應包含三個層面:一是作為“糾正者”,運用對社會現(xiàn)實的理解和對法律精神的把握,修正系統(tǒng)輸出的機械與偏頗;二是作為“證成者”,將機器提供的概率性建議轉化為符合法律論證規(guī)則、能夠接受公共理性檢驗的論證理由;三是作為“責任者”,以其職業(yè)身份和人格,為最終的決策承擔法律與道德責任。這實質上是要求,在人機協(xié)同的決策終點,必須站著一個能夠以法學方法論進行思考和言說的、參與社會共同體生活的、完整意義上的“人”。

需要注意的是,人機協(xié)同的交互過程同樣隱含風險。實證研究表明,面對算法輸出,人類監(jiān)督者容易產生“自動化偏見”,即不假思索地采納機器建議而放棄批判性的獨立思考。這種監(jiān)督的形式化與表面化,將人機協(xié)同導向“人機合謀”,使得人類監(jiān)督者從本應發(fā)揮實質性審查作用的“把關人”,弱化為僅僅為機器決策提供合法性背書的“橡皮圖章”。

可見,問題的關鍵不僅在于“將人置于回路中”,更在于如何確保這種置入是有效的。簡單地在計算流程中插入人類“確認”按鈕,并不能回應法治的要求。對此,需要從“人類的在場”進階至“人類監(jiān)督有效性”的規(guī)范性建構。理論上來說,可以將監(jiān)督的有效性具體拆分為四個要件:因果力、認知通路、自我控制、恰當意圖。

第一,因果力。人類監(jiān)督者必須擁有實質性的干預、修改、否決系統(tǒng)決策的權力與技術手段。這意味著,人類不僅在制度上被授予最終決定權,在技術交互界面上也必須能夠方便地、無障礙地執(zhí)行這一權力。就此而言,一個只能提供“同意”或“關閉”兩個選項的系統(tǒng),其賦予的因果力是極其有限的。

第二,認知通路。必須為監(jiān)督者提供充分、可理解的信息,使其能夠了解系統(tǒng)的能力、局限、風險和決策依據(jù)。一個僅僅輸出結論性處理意見的“黑箱”系統(tǒng),顯然無法滿足這一條件。有效的認知通路要求系統(tǒng)能夠以可視化圖譜、自然語言解釋等方式,清晰呈現(xiàn)其建議所依據(jù)的關鍵證據(jù)、相似判例或高權重特征。

第三,自我控制。系統(tǒng)為人類監(jiān)督者設計的工作流程必須符合人類的認知規(guī)律,避免因疲勞、信息過載或界面不合理而導致監(jiān)督失效。例如,如果系統(tǒng)在短時間內向法官、檢察官推送海量信息,或要求其在單調乏味的任務中長時間保持高度警惕,那么即便人類用戶擁有干預權力和充分信息,也可能因認知負荷超載而無法作出有效判斷。

第四,恰當意圖。組織文化和激勵機制必須確保監(jiān)督者有意愿去公正、審慎地履行其監(jiān)督職責,而非僅僅追求效率或避免擔責。如果用戶所在機構的考核機制過度偏重于效率,那么用戶可能會傾向于不假思索地采納人工智能的建議以加快流程,從而使監(jiān)督流于形式。因此,必須營造鼓勵批判性思維、以司法公正為首要目標的應用環(huán)境。

(三)人機協(xié)同交互界面的設計原則與人類介入節(jié)點

合乎前述要求的法律人工智能系統(tǒng),其應用界面設計應以激發(fā)有效人機交互、實現(xiàn)有效人類監(jiān)督為核心,并至少遵循以下原則:

其一,交互界面必須具備高度的可解釋性與透明性。這意味著使人類用戶的監(jiān)督建立在充分認知的基礎之上,從而能夠真正地審查機器意見的合理性,而非盲目接受。例如,系統(tǒng)界面應能明確展示其輸出結論是錨定引用哪些具體的證據(jù)材料、法律條文或參考案例,以及在推理過程中激活了哪些內部的法律邏輯約束規(guī)則。對于從海量龐雜的材料中梳理提煉的信息,系統(tǒng)應能提供清晰、便捷的溯源驗證機制,避免用戶因操作繁瑣而被迫接受系統(tǒng)的結論。

其二,交互界面必須提供充分的情境參數(shù)與可干預性。法律人能夠獲取和處理系統(tǒng)模型之外的、獨特的情境化線索,這是人類獨有的優(yōu)勢。因此,系統(tǒng)不應是封閉固定的,而應允許人類隨時調整情境條件、改變要素權重、甚至引入新的考量因素,并能實時觀察這些干預對系統(tǒng)輸出產生的動態(tài)影響。例如,在法律事實的認定過程中,不同事實要素具有不同的爭議閾值,證據(jù)之間相互印證、無爭議的基本事實可以運用人工智能的認知能力予以梳理構建,但證據(jù)相互矛盾的存疑事實則進入了價值判斷的領域,需要由系統(tǒng)提示人工介入,讓用戶得以追問“如果該證據(jù)被認定為非法證據(jù),結論會如何變化?”又如,在規(guī)范適用環(huán)節(jié),當存在多種不同的處理方案時,用戶應能自主調節(jié)不同法律原則或政策考量在具體個案中的權重,甚至引入系統(tǒng)初始分析中未充分考慮的因素,能夠主動探詢“如果將某因素的權重提升,備選方案會如何排序?”總之,基于“假設—推演”的參與式交互設計,人類用戶從被動的決策審批者轉變?yōu)橹鲃拥臎Q策共建者,能將其對個案的獨特理解和價值判斷注入計算過程,使機器計算圍繞人類的規(guī)范性決斷展開。

其三,交互界面的設計應主動激發(fā)批判性思維。僅提供單一最優(yōu)解的系統(tǒng),容易誘導用戶產生依賴和順從心理。對此,人機交互界面可以在某種程度上以“論辯場”的形式構建,同時呈現(xiàn)支持和反對某一結論的理由和案例,或者同時提出多種基于不同解釋路徑或價值權衡的備選方案并給出各自的利弊分析,幫助人類用戶進行辯證思考。通過在機器提供的多元化信息和沖突性觀點中進行選擇和論證,人機交互過程本身成為一種強化法律思維、抵制認知惰性的訓練,有助于促進人類行使最終裁量權的審慎和理性。

為使上述原則發(fā)揮作用,在制度上需科學界定人類介入的關鍵節(jié)點,形成精細化的人機協(xié)同操作指南。

一是在事實要素的解釋與轉化環(huán)節(jié),機器可以輔助整理、呈現(xiàn)、分析證據(jù)并給出意見,但對客觀事實要素的法律意義之解讀以及法律事實之認定,仍須由人類確認完成。

二是在規(guī)范適用的沖突與權衡環(huán)節(jié),系統(tǒng)可以作為梳理不同立場觀點方案利弊、直觀呈現(xiàn)推理線索的可視化輔助工具,但為這些變量賦值的權衡過程,本質上是人類的實踐智慧,無法完全由人工智能替代。對于某些開放性概念的理解和適用,系統(tǒng)可以基于歷史數(shù)據(jù)進行統(tǒng)計學描述,但由于其無法為當下的待決案件作出合乎目的性、引導未來走向的規(guī)范性決斷,此時仍須由人類用戶根據(jù)特定時代背景、社會主流價值觀和個案具體情境進行填充。

三是在終局性決策的理由證成與責任承擔環(huán)節(jié),必須由具體的人格主體以其職業(yè)身份和個人信譽為該法律判斷背書并承擔相應責任。法律人工智能輸出的文本可能在形式上符合法律文書的體例、在內容上接近人類用戶的想法,但對于當事人等利益相關方而言,機器并不是能夠傾聽訴求、理解情境、回應質疑、承擔責任的主體。正如有學者所言,“‘人的條件’正是機器與人的根本差異所在:可由人類制作備份的東西,不必操心自己的生存;但我們稱為法律的東西,處理的卻正是生存問題。”

結論

法律人工智能的推理模式需要盡可能貼近法律職業(yè)共同體所接受的論證秩序。規(guī)則驅動的符號推理模式以形式主義法學為法理依據(jù),以演繹邏輯知識的專家系統(tǒng)為技術支撐,致力于保障法律適用的確定性與形式理性,但其無法解決機器語言與其映射內涵開放性之矛盾。數(shù)據(jù)驅動的概率推理模式以現(xiàn)實主義法學為法理依據(jù),以模擬復雜性的神經(jīng)網(wǎng)絡模型為技術支撐,能夠基于海量經(jīng)驗靈活理解自然語言、涌現(xiàn)整體直覺,但其無法消解“表演式推理”與法治價值的脫節(jié)。“神經(jīng)—符號”混合推理架構融合兩者優(yōu)勢,可以實現(xiàn)言之有據(jù)、思之有理,但仍無法跨越價值能動性的鴻溝。人工智能可以聰明地計算,卻無法像人類那樣切身理解正義的分量。法律人工智能可信應用的落點應是以有效人類監(jiān)督為核心的人機協(xié)同,通過高度可解釋、充分可干預、主動激發(fā)批判性思維的交互界面設計,賦能法律人的認知與行動,并維護人類的價值判斷主導權。

-向上滑動,查看完整目錄-

《政法論叢》2026年第2期目錄

【中國法學自主知識體系與標識性概念】

1.民法方法論的中國自主:以社會主義核心價值觀的適用為中心

許中緣

2.刑法教義學對刑法自主知識體系構建的促進

陳偉

【健全協(xié)同機制與完善監(jiān)督體系】

3.論跨部門執(zhí)法司法協(xié)同和監(jiān)督機制之完善

江必新

【稅收法治化實踐的理論反思】

4.對賭協(xié)議業(yè)績補償稅法規(guī)范論

張世明

5.論規(guī)范稅收優(yōu)惠政策的法治進路

葉姍

【數(shù)字智能時代的法治變革】(學術主持人:許多奇)

6.數(shù)字人民幣治理的法律邏輯

許多奇

7.法律人工智能的推理模式及其缺陷克服

王沛然

8.人工智能監(jiān)管自主權與貿易自由化的平衡

李萍

【氣候訴訟與氣候治理】(學術主持人:秦天寶)

9.氣候治理中的氣候訴訟

秦天寶

10.氣候侵權訴訟中法律因果關系判斷的范式重構數(shù)據(jù)產權法律構造論

上官文東

【民商特別制度的法理建構與適用】

11.遺囑信托制度的中國法構造

葛俏

12.應收賬款擔保功能化的法理邏輯

畢勝

《政法論叢》是國內外公開發(fā)行的法學類專業(yè)學術期刊,由山東政法學院于該刊于1985年4月創(chuàng)刊主辦的雙月刊,主編孫培福教授。《政法論叢》倡導“百花齊放,百家爭鳴”的學術研究精神,堅持科學正確的政治與學術導向,強化質量意識,追求學術高品位,實行開放辦刊,注重發(fā)掘和扶植法學新人,積極傳播和吸納國內外優(yōu)秀的法學研究成果。

點擊進入下方小程序

獲取專屬解決方案~

責任編輯 | 郭晴晴

審核人員 | 張文碩 宋思婕

本文聲明 | 本文章僅限學習交流使用,如遇侵權,我們會及時刪除。本文章不代表北大法律信息網(wǎng)(北大法寶)和北京北大英華科技有限公司的法律意見或對相關法規(guī)/案件/事件等的解讀。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

北大法律信息網(wǎng) incentive-icons
北大法律信息網(wǎng)
法律綜合性網(wǎng)站
11490文章數(shù) 17541關注度
往期回顧 全部

專題推薦

洞天福地 花海畢節(jié) 山水饋贈里的“詩與遠方

無障礙瀏覽 進入關懷版