亚洲中文字幕乱码亚洲-蜜桃成熟视频在线观看-免费中文字幕视频在线-中国五十路熟妇洗澡视频-亚洲av伊人啪啪c-国产精品成人一区二区-国产自拍视频一区在线观看-成人一区不卡二区三区四区-亚洲情精品中文字幕99在线

網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

程嘯:論生成式人工智能侵害名譽(yù)權(quán)的侵權(quán)責(zé)任 | 財(cái)經(jīng)法學(xué)202602

0
分享至

【作者】程嘯(清華大學(xué)法學(xué)院教授)

【來(lái)源】北大法寶法學(xué)期刊庫(kù)《財(cái)經(jīng)法學(xué)》2026年第2期(文末附本期期刊目錄)。因篇幅較長(zhǎng),已略去原文注釋。


內(nèi)容提要:生成式人工智能服務(wù)提供者對(duì)于保證其輸出內(nèi)容的真實(shí)性和準(zhǔn)確性具有技術(shù)上的控制力與法律義務(wù)。生成式人工智能的內(nèi)容輸出是提供者自身所實(shí)施的行為。提供者并非單純的網(wǎng)絡(luò)技術(shù)服務(wù)提供者,不能援引網(wǎng)絡(luò)侵權(quán)責(zé)任中的通知規(guī)則與知道規(guī)則免除責(zé)任,而應(yīng)依據(jù)過(guò)錯(cuò)責(zé)任原則為自己的行為負(fù)責(zé)任。生成式人工智能直接針對(duì)其名譽(yù)被涉及的用戶的內(nèi)容輸出不構(gòu)成發(fā)布行為,其輸出的內(nèi)容只有為被侵權(quán)人之外的第三人知悉時(shí),該內(nèi)容的輸出才構(gòu)成發(fā)布行為。該類輸出內(nèi)容既包括事實(shí)陳述,也包括意見(jiàn)表達(dá),提供者可以主張真實(shí)性抗辯與公正評(píng)論抗辯。提供者對(duì)于侵害名譽(yù)權(quán)的過(guò)錯(cuò)包括故意和過(guò)失。對(duì)于過(guò)失的判斷,應(yīng)當(dāng)首先依據(jù)法律規(guī)定的義務(wù)適用違法視為過(guò)失規(guī)則;沒(méi)有法律規(guī)定的義務(wù)或者符合法定要求時(shí),應(yīng)當(dāng)結(jié)合案件具體事實(shí),根據(jù)《民法典》第998條的動(dòng)態(tài)系統(tǒng)論與第1026條列舉的考慮因素,按照侵害行為發(fā)生時(shí)的技術(shù)發(fā)展水平來(lái)認(rèn)定提供者是否具有過(guò)失。

關(guān)鍵詞:生成式人工智能;提供者;名譽(yù)權(quán);侵權(quán)責(zé)任;過(guò)錯(cuò)

目次

一、問(wèn)題的提出

二、內(nèi)容輸出是否是生成式人工智能服務(wù)提供者的行為

三、輸出內(nèi)容是否構(gòu)成侵害名譽(yù)權(quán)行為的認(rèn)定

四、生成式人工智能提供者過(guò)錯(cuò)的判斷

五、結(jié)語(yǔ)

問(wèn)題的提出

生成式人工智能(generative artificial intelligence)是一類能夠根據(jù)輸入數(shù)據(jù)自動(dòng)生成新內(nèi)容的人工智能系統(tǒng),它通過(guò)學(xué)習(xí)大量現(xiàn)有數(shù)據(jù)中的模式、結(jié)構(gòu)和特征,能夠創(chuàng)造出新的文本、圖像、音頻、視頻等形式的內(nèi)容。在目前世界上具有代表性的生成式人工智能中,文本生成類主要包括OpenAI的ChatGPT、Anthropic的Claude、Google的Gemini、Meta的LLaMA、深度求索的DeepSeek、阿里的千問(wèn)、字節(jié)跳動(dòng)的豆包及百度的文心一言;圖像視頻生成類包括OpenAI的DALL-E、Sora,Google的Imagen、Veo,騰訊混元,阿里的通義萬(wàn)相等。生成式人工智能的核心功能在于創(chuàng)作與生成。因此,在其輸出的文本、視頻或圖像等內(nèi)容存在虛假錯(cuò)誤時(shí),可能產(chǎn)生侵害名譽(yù)權(quán)(及其他人格權(quán))侵權(quán)責(zé)任。具體而言,可以分為兩類情形:一是,生成式人工智能輸出的內(nèi)容是虛假錯(cuò)誤的而直接侵害他人的名譽(yù)權(quán),由此產(chǎn)生人工智能公司承擔(dān)侵權(quán)責(zé)任的問(wèn)題;二是,用戶利用人工智能生成具有誹謗性或侮辱性的內(nèi)容而侵害他人名譽(yù)權(quán),此時(shí),涉及用戶與人工智能公司應(yīng)否及如何承擔(dān)侵權(quán)責(zé)任的問(wèn)題。例如,在2023年美國(guó)發(fā)生的“Mark Walters v.OpenAI,L.L.C.案”中,原告是公眾人物、全國(guó)聯(lián)合脫口秀主持人馬克·沃爾特斯(Mark Walters),其以ChatGPT生成不實(shí)內(nèi)容(謊稱其被指控挪用第二修正案基金會(huì)的資金)為由向法院起訴運(yùn)營(yíng)ChatGPT的OpenAI公司構(gòu)成誹謗侵權(quán)。美國(guó)聯(lián)邦地區(qū)法院佐治亞州北區(qū)亞特蘭大分院經(jīng)審理后以ChatGPT關(guān)于原告挪用公款的陳述不能被合理解讀為事實(shí)陳述,且未能證明OpenAI公司存在過(guò)錯(cuò)等理由駁回了原告的起訴。再如,我國(guó)北京互聯(lián)網(wǎng)法院審理的一個(gè)案件中,被告孫某利用生成式人工智能將原告程某用作微信頭像的肖像照創(chuàng)作生成為乳房暴露的動(dòng)漫風(fēng)格圖片,并將該圖片發(fā)送至與原告同在的攝影交流微信群內(nèi)。在原告多次制止后,被告仍繼續(xù)使用人工智能軟件將原告的上述微信頭像的肖像照片生成乳房暴露且身體畸形的動(dòng)漫風(fēng)格圖片,并一對(duì)一發(fā)送給原告。法院判決認(rèn)為“涉案AI軟件是一種AI工具,被告是該工具的使用者,被訴侵權(quán)圖片是被告自主決定生成,并在涉案微信群中發(fā)布。被告明知在人數(shù)眾多的微信群中發(fā)布被訴侵權(quán)圖片,會(huì)導(dǎo)致原告社會(huì)評(píng)價(jià)降低的后果,經(jīng)原告勸阻,仍有意為之,其侵權(quán)故意明顯”,故此,認(rèn)定被告生成并發(fā)送涉案圖片到微信群的行為構(gòu)成對(duì)原告名譽(yù)權(quán)的侵害。

目前,理論界對(duì)生成式人工智能侵權(quán)責(zé)任的歸責(zé)原則、損害、過(guò)錯(cuò)、因果關(guān)系等問(wèn)題已展開(kāi)了一定的研究,但尚未見(jiàn)到對(duì)生成式人工智能侵害名譽(yù)權(quán)的專門討論。有鑒于此,本文擬對(duì)生成式人工智能侵害名譽(yù)權(quán)的侵權(quán)責(zé)任加以分析研究,主要研究以下問(wèn)題:首先,生成式人工智能的內(nèi)容輸出能否被認(rèn)定為生成式人工智能服務(wù)提供者的行為,抑或提供者作為網(wǎng)絡(luò)技術(shù)服務(wù)提供者而只是單純的傳輸他人生產(chǎn)或形成的內(nèi)容或信息;其次,在確認(rèn)生成式人工智能的內(nèi)容輸出是提供者的行為之后,進(jìn)一步分析如何認(rèn)定輸出的內(nèi)容構(gòu)成侵害名譽(yù)權(quán)的加害行為與產(chǎn)生了名譽(yù)權(quán)被侵害的后果;最后,分析在生成式人工智能侵害名譽(yù)權(quán)的案件中怎樣判斷提供者有無(wú)過(guò)錯(cuò)的問(wèn)題。

內(nèi)容輸出是否是生成式人工智能服務(wù)提供者的行為

生成式人工智能的內(nèi)容輸出是否屬于提供者實(shí)施的行為這一問(wèn)題,可以細(xì)分為兩個(gè)層次的小問(wèn)題:首先,該內(nèi)容之輸出究竟是歸屬于生成式人工智能系統(tǒng)本身還是提供者;其次,如果歸屬于提供者,該內(nèi)容的輸出只是單純的傳輸這一技術(shù)服務(wù)行為,還是應(yīng)當(dāng)被認(rèn)定為提供者自身的言論發(fā)布行為。前一問(wèn)題涉及行為主體的確定,后一問(wèn)題則是對(duì)行為性質(zhì)的認(rèn)定。理論界曾有將人工智能本身作為一個(gè)法律主體看待并賦予法律人格的觀點(diǎn)。例如,2017年歐洲議會(huì)通過(guò)的《歐洲機(jī)器人技術(shù)民事法律規(guī)則》第59條(f)認(rèn)為:“從長(zhǎng)遠(yuǎn)來(lái)看要?jiǎng)?chuàng)設(shè)機(jī)器人的特殊法律地位,以確保至少最復(fù)雜的自動(dòng)化機(jī)器人可以被確認(rèn)為享有電子人的法律地位,有責(zé)任彌補(bǔ)自己所造成的任何損害,并且可能在機(jī)器人作出自主決策或以其他方式與第三人獨(dú)立交往的案件中適用電子人格。”基于這種觀點(diǎn),生成式人工智能所輸出的內(nèi)容不是人工智能創(chuàng)造者(即人工智能公司)的言論,甚至根本就不是人類言論,而是人工智能本身的言論。然而,無(wú)論是賦予人工智能以倫理性人格還是技術(shù)性人格,目前都是不可行的。一方面,如果將自我意識(shí)作為“自主性”不可或缺的要素,則目前的通用型人工智能雖然具有相當(dāng)?shù)淖灾餍裕嚯x自然人那樣的可以廣泛地理解、學(xué)習(xí)和執(zhí)行各種任務(wù)的認(rèn)識(shí)思維能力水平還有很遠(yuǎn)的距離,遑論具有人類心靈的能力。“只有當(dāng)機(jī)器能夠模擬主客觀世界的不確定性,使定性的人類思維可以用帶有不確定性的定量方法去研究,才能最終使機(jī)器具有更高的智能,在不同尺度上模擬和代替人腦的思維活動(dòng)。”因此,無(wú)法將人工智能作為自然人那樣看待,賦予其倫理人格。另一方面,人工智能沒(méi)有自己獨(dú)立的財(cái)產(chǎn),無(wú)法承擔(dān)法律責(zé)任,更沒(méi)有自然人那樣的意思表示機(jī)制,因此,法律上無(wú)法賦予人工智能以法人那樣的擬制人格(即技術(shù)人格),最終還是需要明確究竟誰(shuí)是行為人與責(zé)任人。總之,只要人工智能不具有完全的自主性,仍是由人類來(lái)創(chuàng)建人工智能或至少是決定使用人工智能,只要人工智能自身還不擁有獨(dú)立的財(cái)產(chǎn),無(wú)法獨(dú)立承擔(dān)責(zé)任,則行為與責(zé)任總是要?dú)w屬于現(xiàn)行法律所承認(rèn)的自然人、法人或非法人組織等民事主體。生成式人工智能也不例外。因此,對(duì)于上述第一個(gè)問(wèn)題回答是:生成式人工智能輸出內(nèi)容應(yīng)當(dāng)歸屬于提供者,是提供者的行為。

上述第二個(gè)問(wèn)題,即輸出內(nèi)容的行為究竟是單純的傳輸這一技術(shù)性服務(wù)還是提供者自身發(fā)表言論的行為,對(duì)于提供者如何承擔(dān)侵害名譽(yù)權(quán)的侵權(quán)責(zé)任至關(guān)重要。如果輸出的內(nèi)容就是提供者發(fā)表的言論,則其應(yīng)當(dāng)按照過(guò)錯(cuò)責(zé)任承擔(dān)侵權(quán)責(zé)任。倘若只是單純的傳輸行為,那么,提供者可以援引網(wǎng)絡(luò)侵權(quán)責(zé)任中的通知規(guī)則與知道規(guī)則而免責(zé),只在未及時(shí)采取必要措施的情況下才需要承擔(dān)責(zé)任。對(duì)于該問(wèn)題,目前國(guó)內(nèi)外法學(xué)界存在很大的爭(zhēng)議。下面先介紹比較法和我國(guó)法上的爭(zhēng)論,然后闡述本文的觀點(diǎn)。

(一)比較法上的爭(zhēng)議

1.美國(guó)法

1996年的美國(guó)《通信規(guī)范法》第230條(c)款為“交互式計(jì)算機(jī)服務(wù)的提供者或使用者”提供了豁免權(quán)。該款明確規(guī)定,交互式計(jì)算機(jī)服務(wù)的提供者或使用者不得被視為另一信息內(nèi)容提供者所提供信息的發(fā)布者或傳播者,因此,無(wú)須因?yàn)橐韵滦袨槌袚?dān)責(zé)任:(1)出于善意自愿采取行動(dòng),限制對(duì)其認(rèn)為屬于淫穢、猥褻、淫蕩、污穢、極端暴力、騷擾性或其他令人反感材料的訪問(wèn)或獲取(無(wú)論該材料是否受憲法保護(hù));(2)采取行動(dòng),為信息內(nèi)容提供者或他人提供技術(shù)手段,以限制對(duì)第(1)項(xiàng)所述材料的訪問(wèn)。上述規(guī)定使得平臺(tái)免于為第三方內(nèi)容承擔(dān)責(zé)任,被認(rèn)為是現(xiàn)代互聯(lián)網(wǎng)發(fā)展的重要法律基礎(chǔ)。司法實(shí)踐中,美國(guó)法院逐漸明確了《通信規(guī)范法》第230條的適用須滿足以下三個(gè)條件:第一,被告必須是交互式計(jì)算機(jī)服務(wù)的提供者或使用者;第二,索賠必須基于另一信息內(nèi)容提供者提供的信息;第三,索賠必須將被告視為發(fā)布者。基于對(duì)這三個(gè)限制條件的理解,美國(guó)法學(xué)界就生成式人工智能服務(wù)的提供者(也稱運(yùn)營(yíng)者)能否適用《通信規(guī)范法》第230條的問(wèn)題存在肯定說(shuō)、否定說(shuō)與區(qū)分適用說(shuō)等三種不同觀點(diǎn)。

肯定說(shuō)認(rèn)為,生成式人工智能服務(wù)符合《通信規(guī)范法》第230條的定義,可以適用該條。首先,法院普遍認(rèn)為,允許用戶訪問(wèn)托管于服務(wù)器的內(nèi)容或服務(wù)的網(wǎng)站即屬于“交互式計(jì)算機(jī)服務(wù)”,生成式人工智能平臺(tái)允許用戶訪問(wèn)其托管的人工智能模型,符合該定義。其次,生成式人工智能是基于從互聯(lián)網(wǎng)、授權(quán)方和用戶處獲取的第三方海量數(shù)據(jù)進(jìn)行訓(xùn)練后,根據(jù)用戶提示,通過(guò)識(shí)別和重組這些信息中的模式來(lái)生成回應(yīng)。生成式人工智能獲取這些信息后不會(huì)存儲(chǔ)所依賴的信息,相關(guān)信息始終歸第三方所有。生成式人工智能是通過(guò)梳理第三方內(nèi)容,響應(yīng)用戶提示生成內(nèi)容。除了用戶的輸入外,生成式人工智能并未自主創(chuàng)造新的內(nèi)容。再次,與圖書館或報(bào)攤類似,生成式人工智能響應(yīng)用戶輸入整合第三方內(nèi)容時(shí),扮演的正是“發(fā)布者”的角色。因此,針對(duì)人工智能公司的訴訟大概率會(huì)將其視為信息發(fā)布者,如主張人工智能生成誹謗內(nèi)容的訴訟就會(huì)要求法院將人工智能視為該信息的發(fā)布者。最后,盡管ChatGPT等生成式人工智能技術(shù)非常復(fù)雜,但技術(shù)的復(fù)雜性不改變生成式人工智能作為“中性工具”的法律本質(zhì)。法院在判斷《通信規(guī)范法》第230條的可適用性時(shí)關(guān)注的是平臺(tái)是否在扮演發(fā)布者角色而非其算法的復(fù)雜程度。并且,國(guó)會(huì)立法意圖也支持對(duì)第230條豁免作寬泛解釋,從而保護(hù)技術(shù)平臺(tái)免于為無(wú)法控制的第三方內(nèi)容承擔(dān)過(guò)重的責(zé)任。

否定說(shuō)認(rèn)為,生成式人工智能不能適用《通信規(guī)范法》第230條。首先,該條要求被告是交互式計(jì)算機(jī)服務(wù)的提供者或使用者,而非違法內(nèi)容的提供者。人工智能程序的輸出是由程序自身生成的,并非簡(jiǎn)單地引用現(xiàn)有網(wǎng)站內(nèi)容(如搜索引擎提供的網(wǎng)站摘要)或現(xiàn)有用戶查詢內(nèi)容(如某些自動(dòng)補(bǔ)全功能通過(guò)引用用戶提供的內(nèi)容推薦下一個(gè)或多個(gè)詞匯)。因此,針對(duì)人工智能公司的訴訟,本質(zhì)上是要求將人工智能公司視為信息的發(fā)布者或傳播者,該公司就是潛在的責(zé)任主體——“信息內(nèi)容提供者”。其次,法院此前明確了第230條不豁免那些對(duì)有害內(nèi)容有“實(shí)質(zhì)性貢獻(xiàn)”的被告,而人工智能公司創(chuàng)造并提供了生成不當(dāng)內(nèi)容的程序,其對(duì)生成內(nèi)容具有實(shí)質(zhì)貢獻(xiàn)。再次,生成式人工智能看似基于訓(xùn)練數(shù)據(jù)中已有的詞匯生成內(nèi)容,但就像某人通過(guò)復(fù)制粘貼他人發(fā)布的每一個(gè)字(而非親自寫每一個(gè)字)來(lái)構(gòu)成誹謗性文本時(shí)被認(rèn)為同樣創(chuàng)作了相關(guān)內(nèi)容一樣,人工智能生成的誹謗性文本不能被認(rèn)為只是對(duì)已有內(nèi)容的簡(jiǎn)單聚集和復(fù)制粘貼,而是對(duì)其誹謗性質(zhì)產(chǎn)生了實(shí)質(zhì)貢獻(xiàn)。最后,適用《通信規(guī)范法》第230條的傳統(tǒng)案例至少都在理論上讓言論的實(shí)際創(chuàng)造者為其負(fù)責(zé)。如果讓人工智能程序的生成內(nèi)容可以獲得第230條的豁免,則一般性地完全切斷了受害人向任何人尋求救濟(jì)的可能。

區(qū)分適用說(shuō)認(rèn)為,就能否適用《通信規(guī)范法》第230條的問(wèn)題,不能一概而論,要區(qū)分不同情況。在區(qū)分適用說(shuō)中,有的學(xué)者認(rèn)為,關(guān)鍵的問(wèn)題在于平臺(tái)究竟只是發(fā)布第三方的內(nèi)容還是其自身就是“信息內(nèi)容提供者”,即生成式人工智能是否對(duì)作為原告侵權(quán)賠償訴訟基礎(chǔ)的可訴內(nèi)容進(jìn)行了“創(chuàng)作”或“開(kāi)發(fā)”。判斷該問(wèn)題時(shí),法院主要關(guān)注的是平臺(tái)與內(nèi)容的互動(dòng)性質(zhì)。如果平臺(tái)對(duì)違法內(nèi)容的產(chǎn)生有實(shí)質(zhì)促進(jìn),則不享有第230條的豁免權(quán)。據(jù)此,倘若生成式人工智能存在以下情形,則法院可能拒絕給予其第230條豁免權(quán):對(duì)內(nèi)容的違法性因素負(fù)有責(zé)任從而對(duì)內(nèi)容構(gòu)成實(shí)質(zhì)性促成;超出“傳統(tǒng)編輯功能”的范圍而添加了新內(nèi)容,不再是第三方信息的“中介”;屬于違法內(nèi)容的“作者”,而非僅展示第三方違法內(nèi)容;索賠依據(jù)聚焦于被告的其他行為或商業(yè)慣例,而非平臺(tái)上展示的內(nèi)容。如果法院認(rèn)定存在以下情形,則生成式人工智能可能享有第230條的保護(hù):僅僅轉(zhuǎn)發(fā)、整理或總結(jié)現(xiàn)有第三方內(nèi)容且對(duì)內(nèi)容的修改屬于“傳統(tǒng)編輯功能”,基礎(chǔ)信息完全是由第三方提供的且通過(guò)“中性”的算法進(jìn)行過(guò)濾或處理。還有的學(xué)者認(rèn)為,應(yīng)當(dāng)結(jié)合人工智能的技術(shù)設(shè)計(jì)細(xì)節(jié)進(jìn)行具體分析:其一,模仿預(yù)訓(xùn)練數(shù)據(jù)中的語(yǔ)言模式生成新文本的基準(zhǔn)基礎(chǔ)模型(baseline foundation models)會(huì)響應(yīng)提示生成新內(nèi)容,而非僅托管或傳遞他人創(chuàng)作信息,因此不能獲得第230條的豁免;其二,輸出的內(nèi)容直接取自第三方來(lái)源的抽取式生成(extractive generation)的情況下,因其與搜索引擎摘要等已獲豁免的功能高度相似,豁免的可能性較高;其三,檢索增強(qiáng)(retrieval-augmented)生成模型雖然借鑒了搜索功能的特性,但可能生成未基于檢索源的虛構(gòu)內(nèi)容,其能否豁免存在不確定性;其四,基于人類反饋進(jìn)行學(xué)(learning from human feedback)的模型更接近平臺(tái)自主創(chuàng)作內(nèi)容,豁免的概率會(huì)降低。

從美國(guó)的司法實(shí)踐來(lái)看,在聯(lián)邦第二巡回法院審理的Force v.Facebook案中,法院審查的核心問(wèn)題是《通信規(guī)范法》第230條是否阻卻作為美國(guó)公民的受害者及其近親屬就Facebook使用一種基于用戶輸入來(lái)決定向其展示何種內(nèi)容的算法而向該平臺(tái)提起訴訟的可能性。法院認(rèn)為,使用算法本身并不會(huì)使交互式計(jì)算機(jī)服務(wù)成為發(fā)布者,因?yàn)镕acebook的算法只是組織第三方信息。所謂信息內(nèi)容提供者,是指對(duì)通過(guò)互聯(lián)網(wǎng)或任何其他交互式計(jì)算機(jī)服務(wù)提供的信息的創(chuàng)建或開(kāi)發(fā)全部或部分負(fù)責(zé)的任何個(gè)人或?qū)嶓w。如果Facebook創(chuàng)建或開(kāi)發(fā)了原告索賠所依賴的內(nèi)容,那么Facebook就可能被追究責(zé)任,因?yàn)檫@將把Facebook的身份從“發(fā)布者”轉(zhuǎn)變?yōu)椤靶畔?nèi)容提供者”,并剝奪其受第230條保護(hù)的權(quán)利。在聯(lián)邦第二巡回法院看來(lái),F(xiàn)acebook的算法只是獲取用戶提供的信息,并將該內(nèi)容與其他第三方內(nèi)容匹配從而生成供用戶消費(fèi)的信息流。Facebook只是顯示未經(jīng)更改的內(nèi)容并使其更可見(jiàn)而已,故而,不應(yīng)被視為第230條規(guī)范目的下的內(nèi)容創(chuàng)建者。

2.歐盟法

2000年歐盟頒布的《電子商務(wù)指令》(Directive 2000/31/EC)的第四節(jié)對(duì)“中間服務(wù)提供者的責(zé)任”作出了規(guī)定。該法第12—14條分別規(guī)定了在滿足特定條件時(shí),服務(wù)提供者不因提供純粹傳輸服務(wù),對(duì)信息的自動(dòng)、中間性和暫時(shí)的存儲(chǔ)以及根據(jù)用戶的要求存儲(chǔ)信息而承擔(dān)責(zé)任。此外,第15條還進(jìn)一步明確了成員國(guó)不應(yīng)當(dāng)要求服務(wù)提供者承擔(dān)監(jiān)督其傳輸和存儲(chǔ)的信息的一般性義務(wù),也不應(yīng)當(dāng)要求服務(wù)提供者承擔(dān)主動(dòng)收集表明違法活動(dòng)的事實(shí)或情況的一般性義務(wù),但是,可以要求服務(wù)提供者承擔(dān)立即向主管公共機(jī)構(gòu)報(bào)告其服務(wù)接受者進(jìn)行的非法行為或者提供的非法信息的義務(wù),或者應(yīng)主管當(dāng)局的要求而提供可以確定與其有存儲(chǔ)協(xié)議的服務(wù)接受者的身份信息的義務(wù)。2022年歐盟又頒布了《數(shù)字服務(wù)法》(Digital Services Act,DSA)。該法繼續(xù)保留了2000年《電子商務(wù)指令》有關(guān)中間服務(wù)提供者責(zé)任有條件豁免的法律框架,并進(jìn)一步豐富完善了相關(guān)規(guī)則以適應(yīng)數(shù)字經(jīng)濟(jì)的發(fā)展。與美國(guó)一樣,歐盟學(xué)者對(duì)于生成式人工智能服務(wù)提供者能否適用《數(shù)字服務(wù)法》關(guān)于中間服務(wù)提供者責(zé)任豁免的規(guī)定也存在爭(zhēng)議,有肯定說(shuō)、部分肯定說(shuō)與否定說(shuō)等不同觀點(diǎn)。

肯定說(shuō)認(rèn)為,人工智能系統(tǒng)自主生成的內(nèi)容應(yīng)當(dāng)視為人工智能系統(tǒng)運(yùn)營(yíng)者的行為。首先,運(yùn)營(yíng)者通過(guò)選擇應(yīng)用領(lǐng)域決定了內(nèi)容的傳播語(yǔ)境,進(jìn)而影響訓(xùn)練數(shù)據(jù)的流入。其次,這些系統(tǒng)越來(lái)越多地被運(yùn)營(yíng)者用作輔助工具,如客戶溝通,這也表明這些內(nèi)容可視為運(yùn)營(yíng)者的自有內(nèi)容。因此,至少原則上可以將責(zé)任歸屬于運(yùn)營(yíng)者,按照一般原則對(duì)自有內(nèi)容負(fù)責(zé)。再次,在2013年5月14日德國(guó)聯(lián)邦最高法院(BGH)第六民事審判庭針對(duì)谷歌自動(dòng)補(bǔ)全功能的判例中,法院原則上認(rèn)定谷歌對(duì)非法搜索詞補(bǔ)全負(fù)有責(zé)任,但通常僅在運(yùn)營(yíng)者違反反應(yīng)性審查義務(wù)時(shí)才承擔(dān)責(zé)任。根據(jù)這一判例,原則上可以認(rèn)定通信人工智能能夠像人類通信一樣侵害人格權(quán)。因此,在通信人工智能的言論可以歸責(zé)于服務(wù)提供商的情況下,屬于《電信媒體法》第7條第1款意義上的其“自己的信息”,提供者需要根據(jù)一般法律負(fù)責(zé)。

部分肯定說(shuō)認(rèn)為,存在一些可行的解釋方式能夠?qū)⑻囟ㄊ褂们榫车纳墒饺斯ぶ悄芗{入《數(shù)字服務(wù)法》的適用范圍,此說(shuō)主要分為搜索引擎路徑說(shuō)和托管路徑說(shuō)。搜索引擎路徑說(shuō)嘗試通過(guò)將生成式人工智能解釋為搜索引擎,進(jìn)而使之落入《數(shù)字服務(wù)法》的監(jiān)管范圍,理由在于:首先,搜索引擎難以直接劃為純粹傳輸、緩存或托管這幾類“中間服務(wù)”中的某一種,但仍然受《數(shù)字服務(wù)法》規(guī)制。這說(shuō)明《數(shù)字服務(wù)法》對(duì)中間服務(wù)各類別的定義是靈活的。其次,搜索引擎的核心功能在于篩選并排序“極有可能滿足用戶需求的在線資源列表”,有些生成式人工智能被用于在信息富集的環(huán)境中組織信息,兩者具有功能上的高度相似性。再次,有些生成式人工智能被嵌入已受《數(shù)字服務(wù)法》監(jiān)管的現(xiàn)有平臺(tái),此時(shí),該類生成式人工智能視具體情況有可能被作為搜索引擎的一部分而適用《數(shù)字服務(wù)法》,如嵌入必應(yīng)搜索引擎中的必應(yīng)(Bing)聊天采用GPT-4生成答案及創(chuàng)意內(nèi)容,可被視為必應(yīng)搜索引擎的有機(jī)組成部分,進(jìn)而可能需作為必應(yīng)搜索引擎的一部分遵守《數(shù)字服務(wù)法》的所有義務(wù)。托管路徑說(shuō)則認(rèn)為,生成式人工智能可以解釋為托管服務(wù)(hosting),理由在于:首先,生成式人工智能的運(yùn)作包含“生成輸出”之外的多個(gè)階段。在判斷人工智能生成內(nèi)容的“實(shí)際創(chuàng)作者”時(shí),應(yīng)當(dāng)參考人類與人工智能在內(nèi)容制作中的參與程度。這可能因個(gè)案差異有所不同,需要單獨(dú)評(píng)估每個(gè)具體的使用場(chǎng)景,無(wú)法直接將所有生成式人工智能應(yīng)用一概歸類為“實(shí)際內(nèi)容創(chuàng)作者”。其次,生成式人工智能可能符合歐洲法院在“谷歌搜索案”(Google Search)及近期判例中采用的“廣義托管服務(wù)定義”,它們通常會(huì)在服務(wù)器中存儲(chǔ)“查詢與用戶信息”,并且內(nèi)容生成過(guò)程具有純技術(shù)性、自動(dòng)化特征且對(duì)所存儲(chǔ)或生成的內(nèi)容缺乏認(rèn)知與控制,具有中立性。最后,生成式人工智能會(huì)在服務(wù)器內(nèi)存中臨時(shí)存儲(chǔ)用戶提示詞(輸入內(nèi)容)等特定信息。模型輸入可被視為用戶提供,并應(yīng)用戶要求由大型語(yǔ)言模型存儲(chǔ)。由于這些輸出是由用戶的提示詞所觸發(fā)的,輸出結(jié)果也可被認(rèn)定為用戶“提供”的行為。

否定說(shuō)認(rèn)為,生成式人工智能不適用《數(shù)字服務(wù)法》。這是因?yàn)椋墒饺斯ぶ悄芡ǔ2粚儆凇稊?shù)字服務(wù)法》所規(guī)定的“中間服務(wù)”中的“純粹傳輸”“緩存”或“托管”中的任何一類。最接近的可能是托管服務(wù),但針對(duì)這類情況,根據(jù)歐洲法院的觀點(diǎn),即使是僅存儲(chǔ)用戶生成內(nèi)容的平臺(tái),若偏離“中立地位”,也可能失去其在《數(shù)字服務(wù)法》下的“托管服務(wù)提供者”地位。例如,平臺(tái)若對(duì)特定用戶生成內(nèi)容進(jìn)行推廣,就可能被認(rèn)定為偏離中立地位。在生成式人工智能場(chǎng)景,正是人工智能模型本身提供了內(nèi)容,因此對(duì)于自行生成內(nèi)容的系統(tǒng)開(kāi)發(fā)者,更不能將其視為托管服務(wù)提供者。此外,《數(shù)字服務(wù)法》制定的初衷也并不旨在應(yīng)對(duì)生成式人工智能產(chǎn)生的內(nèi)容。

(二)我國(guó)學(xué)界的不同觀點(diǎn)

依據(jù)我國(guó)《民法典》第1195—1197條確立的包括通知規(guī)則與知道規(guī)則在內(nèi)的網(wǎng)絡(luò)侵權(quán)規(guī)則,當(dāng)網(wǎng)絡(luò)服務(wù)提供者并未直接實(shí)施侵害他人民事權(quán)益的行為,而只是網(wǎng)絡(luò)用戶利用網(wǎng)絡(luò)服務(wù)提供者所提供的網(wǎng)絡(luò)服務(wù)實(shí)施侵權(quán)行為時(shí),網(wǎng)絡(luò)服務(wù)提供者原則上不需要為他人的侵權(quán)行為承擔(dān)責(zé)任。只有在以下兩種情形中,網(wǎng)絡(luò)服務(wù)提供者才需要承擔(dān)侵權(quán)責(zé)任:其一,網(wǎng)絡(luò)服務(wù)提供者知道或應(yīng)當(dāng)知道網(wǎng)絡(luò)用戶利用網(wǎng)絡(luò)服務(wù)實(shí)施侵權(quán)行為而未及時(shí)采取必要措施的,應(yīng)當(dāng)與該網(wǎng)絡(luò)用戶承擔(dān)連帶責(zé)任(《民法典》第1197條),這就是所謂的“知道規(guī)則”;其二,網(wǎng)絡(luò)服務(wù)提供者不知道且不應(yīng)當(dāng)知道網(wǎng)絡(luò)用戶利用生成式人工智能服務(wù)實(shí)施侵權(quán)行為,但是,其在收到權(quán)利人的通知后未及時(shí)采取必要措施的,需要就損害的擴(kuò)大部分與該網(wǎng)絡(luò)用戶承擔(dān)連帶責(zé)任(《民法典》第1195—1196條)這就是所謂的“通知規(guī)則”,也稱“通知?jiǎng)h除規(guī)則”。

通知規(guī)則與知道規(guī)則是《民法典》為了協(xié)調(diào)權(quán)益保護(hù)與行為自由,避免過(guò)度加重網(wǎng)絡(luò)服務(wù)提供者的審查義務(wù)、妨害信息網(wǎng)絡(luò)科技發(fā)展,而在借鑒美國(guó)等國(guó)外相關(guān)立法的基礎(chǔ)上確立的適用于網(wǎng)絡(luò)技術(shù)服務(wù)提供者的獨(dú)特侵權(quán)規(guī)則。除非本地部署且僅通過(guò)局域網(wǎng)供內(nèi)部人員使用,否則,生成式人工智能服務(wù)都是通過(guò)互聯(lián)網(wǎng)提供的并且無(wú)須附著于有體物之上,屬于網(wǎng)絡(luò)服務(wù)。因此,在生成式人工智能侵害名譽(yù)權(quán)的侵權(quán)糾紛中,生成式人工智能服務(wù)的提供者屬于網(wǎng)絡(luò)服務(wù)提供者。問(wèn)題是,其究竟是網(wǎng)絡(luò)技術(shù)服務(wù)提供者(內(nèi)容的輸出不能被看作是提供者的行為),還是網(wǎng)絡(luò)內(nèi)容服務(wù)提供者(該內(nèi)容就是提供者的行為)。對(duì)此,我國(guó)學(xué)界存在不同的觀點(diǎn)。

有的學(xué)者認(rèn)為,生成式人工智能的提供者固然存在不同于傳統(tǒng)的網(wǎng)絡(luò)內(nèi)容提供者之處,如相較于傳統(tǒng)的內(nèi)容提供者,通用人工智能提供者對(duì)于生成的內(nèi)容控制力降低,并且通用人工智能的創(chuàng)作行為需要人類的提示詞予以激發(fā)等,但是,就ChatGPT等大語(yǔ)言模型的提供者而言,大語(yǔ)言模型自動(dòng)生成的信息內(nèi)容并非是其用戶創(chuàng)作或發(fā)布的信息,而應(yīng)當(dāng)看作是人工智能系統(tǒng)提供者本身創(chuàng)作、發(fā)布的信息。有的學(xué)者認(rèn)為,因?yàn)樯墒饺斯ぶ悄芊?wù)提供者對(duì)輸出內(nèi)容的控制力弱于網(wǎng)絡(luò)內(nèi)容服務(wù)的提供者,并且,在我國(guó)立法中鮮有關(guān)于網(wǎng)絡(luò)內(nèi)容服務(wù)提供者侵權(quán)責(zé)任的規(guī)則,所以,在實(shí)質(zhì)意義上不宜將生成式人工智能服務(wù)提供者認(rèn)定為網(wǎng)絡(luò)內(nèi)容服務(wù)的提供者,否則將對(duì)現(xiàn)有法律體系帶來(lái)不必要的沖擊。還有的學(xué)者在分析生成式人工智能搜索服務(wù)提供者能否認(rèn)定為網(wǎng)絡(luò)技術(shù)服務(wù)提供者而適用避風(fēng)港規(guī)則予以免責(zé)時(shí)指出,生成式人工智能搜索與傳統(tǒng)搜索的最大區(qū)別在于其直接向用戶提供搜索的回答,該回答中源自來(lái)源網(wǎng)站的部分也是經(jīng)由人工智能模型生成的,即其對(duì)內(nèi)容進(jìn)行了編輯加工,而非單純的提供網(wǎng)頁(yè)鏈接。故此,不能將此種人工智能服務(wù)提供者認(rèn)定為網(wǎng)絡(luò)技術(shù)服務(wù)提供者。

(三)內(nèi)容輸出是生成式人工智能服務(wù)提供者所實(shí)施的行為

《民法典》第1195—1197條確立的通知規(guī)則與知道規(guī)則適用的是網(wǎng)絡(luò)技術(shù)服務(wù)提供者。網(wǎng)絡(luò)技術(shù)服務(wù)提供者只是單純地按照用戶的指令在用戶指定的兩點(diǎn)或多點(diǎn)之間通過(guò)信息網(wǎng)絡(luò)就該用戶所提供或修改的內(nèi)容自動(dòng)提供網(wǎng)絡(luò)接入、信息傳輸、自動(dòng)存儲(chǔ)、存儲(chǔ)空間、信息搜索、鏈接服務(wù)。在這個(gè)過(guò)程中,信息或內(nèi)容是由用戶所創(chuàng)作或提供的,網(wǎng)絡(luò)技術(shù)服務(wù)提供者本身并不參與該信息或內(nèi)容的生成或?qū)χM(jìn)行編輯、加工、整理或更改。然而,生成式人工智能服務(wù)則完全不同,它并非單純的信息傳播鏈條的中立節(jié)點(diǎn)。雖然生成式人工智能需要依據(jù)用戶的指令而輸出內(nèi)容,但其本身也是基于數(shù)據(jù)、算法和模型等復(fù)雜的技術(shù)而生成文本、圖片、音頻、視頻、代碼等新的信息或內(nèi)容。在這個(gè)過(guò)程中,生成式人工智能服務(wù)提供者并非處于純粹消極的、中立的第三方地位,而是實(shí)質(zhì)地參與了內(nèi)容或信息的生成,由此在法律上負(fù)有相應(yīng)的義務(wù)以避免產(chǎn)生侵害他人合法權(quán)益的內(nèi)容以及違法、有害內(nèi)容。因此,本文認(rèn)為,生成式人工智能服務(wù)的內(nèi)容輸出是提供者實(shí)施的行為,理由闡述如下:

1.生成式人工智能服務(wù)提供者對(duì)于輸出內(nèi)容的真實(shí)性、準(zhǔn)確性與合法性具有實(shí)質(zhì)上的控制力。對(duì)此,可以從生成式人工智能必備的三大要素即數(shù)據(jù)、算法和模型的角度分別加以分析。一方面,生成式人工智能離不開(kāi)海量的數(shù)據(jù),數(shù)據(jù)決定了它能夠生成何種內(nèi)容(文本、圖片、視頻、代碼等),也決定了生成內(nèi)容的上限。生成式人工智能的開(kāi)發(fā)者進(jìn)行大語(yǔ)言模型訓(xùn)練的最主要的一類數(shù)據(jù)是對(duì)合法取得的數(shù)據(jù)標(biāo)注后形成的數(shù)據(jù)集。生成式人工智能數(shù)據(jù)標(biāo)注(generative artificial intelligence data annotation),是指通過(guò)人工操作或使用自動(dòng)化技術(shù)機(jī)制,基于對(duì)提示信息的響應(yīng)信息內(nèi)容,將特定信息如標(biāo)簽、類別或?qū)傩蕴砑拥轿谋尽D片、音頻、視頻或者其他數(shù)據(jù)樣本的過(guò)程。數(shù)據(jù)標(biāo)注本身雖然并不改變數(shù)據(jù)的原始形態(tài)和內(nèi)容,但是,卻深刻地改變了數(shù)據(jù)的語(yǔ)義、內(nèi)涵、用途以及價(jià)值。所謂“越人工,越智能”。數(shù)據(jù)標(biāo)注是否科學(xué)、準(zhǔn)確、合法、合倫理,從根本上決定了生成式人工智能輸出的內(nèi)容的風(fēng)格、質(zhì)量、準(zhǔn)確與安全。當(dāng)數(shù)據(jù)標(biāo)注不準(zhǔn)確、不規(guī)范、不合法或者摻雜了標(biāo)注者的性別、種族、民族等歧視性、侮辱性因素時(shí),經(jīng)過(guò)此種標(biāo)注數(shù)據(jù)訓(xùn)練出的模型就往往內(nèi)生了侵害他人合法權(quán)益的風(fēng)險(xiǎn)。由此可見(jiàn),從數(shù)據(jù)標(biāo)注的環(huán)節(jié),人工智能開(kāi)發(fā)者或提供者實(shí)際上就已經(jīng)在實(shí)質(zhì)性地影響輸出的內(nèi)容。

另一方面,如果說(shuō)數(shù)據(jù)是原料,算法就是過(guò)程,模型則是結(jié)果。生成式人工智能的研發(fā)者在特定數(shù)據(jù)集上運(yùn)行一定的算法后得到的就是模型,生成式人工智能生成內(nèi)容是基于深度學(xué)習(xí)技術(shù)的不同模型通過(guò)算法來(lái)處理數(shù)據(jù)后生成文本、圖像、視頻等不同內(nèi)容的,如通過(guò)擴(kuò)散模型、Transformer模型生成文本、圖像、視頻,基于卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行圖像識(shí)別,基于循環(huán)神經(jīng)網(wǎng)絡(luò)模型進(jìn)行語(yǔ)言翻譯等。在生成式人工智能中,算法和模型本身就直接參與了內(nèi)容的創(chuàng)造。在GPT、Stable Diffusion這類模型,其核心算法如Transformer、Diffusion Model是通過(guò)學(xué)習(xí)海量數(shù)據(jù)中的聯(lián)合概率分布,即數(shù)據(jù)中多個(gè)變量組成的向量的概率分布,對(duì)已有的數(shù)據(jù)進(jìn)行總結(jié)歸納。以Transformer模型生成文本的過(guò)程為例,其核心在于注意力機(jī)制,即通過(guò)計(jì)算編碼器端的輸出結(jié)果中的每個(gè)向量與解碼器端的輸出結(jié)果中每個(gè)向量的相關(guān)性,得出若干相關(guān)性分?jǐn)?shù),再進(jìn)行歸一化處理將其轉(zhuǎn)化為相關(guān)的權(quán)重,用來(lái)表征輸入序列與輸出序列各元素之間的相關(guān)性。這一機(jī)制使得模型能夠深度理解整個(gè)輸入序列中每個(gè)詞之間的關(guān)系和上下文含義,減少了對(duì)外部信息的依賴,更擅長(zhǎng)捕捉數(shù)據(jù)和特征的內(nèi)部相關(guān)性。算法和模型對(duì)輸出的內(nèi)容是什么具有實(shí)質(zhì)性影響。生成式人工智能的開(kāi)發(fā)者通過(guò)算法已經(jīng)決定了模型理解世界和生成內(nèi)容的“概率規(guī)則”,而非在每次輸出時(shí)逐一進(jìn)行干預(yù)。輸出內(nèi)容本質(zhì)上是開(kāi)發(fā)者通過(guò)算法預(yù)設(shè)的“世界觀”與用戶即時(shí)提示共同作用的結(jié)果,其貢獻(xiàn)是深嵌于模型本質(zhì)之中的。因此,生成式人工智能的研發(fā)者需要通過(guò)設(shè)計(jì)和選擇不同的算法架構(gòu)與訓(xùn)練目標(biāo),約束模型參數(shù)的學(xué)習(xí)方向,以確保輸出內(nèi)容的真實(shí)性、準(zhǔn)確性與安全性。

2.正是因?yàn)樯墒饺斯ぶ悄苁茄邪l(fā)者所創(chuàng)造的,研發(fā)者從數(shù)據(jù)、算法和模型三個(gè)維度上對(duì)輸出內(nèi)容都具有實(shí)質(zhì)性的、技術(shù)上的控制力,所以,法律上才從人工智能的研發(fā)、部署、運(yùn)營(yíng)、管理等各個(gè)環(huán)節(jié)給研發(fā)者施加了相應(yīng)的義務(wù),要求其通過(guò)技術(shù)手段實(shí)現(xiàn)生成式人工智能的安全、可靠與可控,防止輸出誹謗性、歧視性以及其他違法有害內(nèi)容。

例如,歐盟《人工智能法案》對(duì)于通用人工智能模型的提供者義務(wù)作出了詳細(xì)的規(guī)定,如:編制并不斷更新該模型的技術(shù)文件,包括其培訓(xùn)和測(cè)試過(guò)程及其評(píng)估結(jié)果;編制、不斷更新并向意圖將通用人工智能模型納入其人工智能系統(tǒng)的提供者提供信息和文件,該信息和文件應(yīng)當(dāng)使人工智能系統(tǒng)的提供者能夠很好地了解通用人工智能模型的能力和局限性,并遵守本條例規(guī)定的義務(wù)等(第53條)。對(duì)于那些具有系統(tǒng)風(fēng)險(xiǎn)的通用人工智能模型的提供者,該法案還規(guī)定了更多的義務(wù),如:應(yīng)當(dāng)根據(jù)反映先進(jìn)技術(shù)水平的標(biāo)準(zhǔn)化協(xié)議和工具進(jìn)行模型評(píng)估,包括對(duì)模型進(jìn)行對(duì)抗測(cè)試并記錄在案,以識(shí)別和降低系統(tǒng)性風(fēng)險(xiǎn);評(píng)估和減輕歐盟層面可能存在的系統(tǒng)性風(fēng)險(xiǎn),包括因開(kāi)發(fā)、投放市場(chǎng)或使用具有系統(tǒng)性風(fēng)險(xiǎn)的通用人工智能模型而產(chǎn)生的系統(tǒng)性風(fēng)險(xiǎn)的來(lái)源;跟蹤、記錄并及時(shí)向人工智能辦公室報(bào)告,并酌情向成員國(guó)主管機(jī)關(guān)報(bào)告嚴(yán)重事件的相關(guān)信息以及為解決這些問(wèn)題可能采取的糾正措施;確保對(duì)具有系統(tǒng)性風(fēng)險(xiǎn)的通用人工智能模型和模型的物理基礎(chǔ)設(shè)施提供足夠水平的網(wǎng)絡(luò)安全保護(hù)等(第55條)。

在我國(guó),法律法規(guī)規(guī)章也對(duì)此作出了明確的規(guī)定。2025年新修訂的《網(wǎng)絡(luò)安全法》第20條第1款規(guī)定:“國(guó)家支持人工智能基礎(chǔ)理論研究和算法等關(guān)鍵技術(shù)研發(fā),推進(jìn)訓(xùn)練數(shù)據(jù)資源、算力等基礎(chǔ)設(shè)施建設(shè),完善人工智能倫理規(guī)范,加強(qiáng)風(fēng)險(xiǎn)監(jiān)測(cè)評(píng)估和安全監(jiān)管,促進(jìn)人工智能應(yīng)用和健康發(fā)展。”《生成式人工智能服務(wù)管理暫行辦法》第4條明確要求:提供和使用生成式人工智能服務(wù),應(yīng)當(dāng)遵守法律、行政法規(guī),尊重社會(huì)公德和倫理道德,不得生成虛假有害信息等法律、行政法規(guī)禁止的內(nèi)容;在算法設(shè)計(jì)、訓(xùn)練數(shù)據(jù)選擇、模型生成和優(yōu)化、提供服務(wù)等過(guò)程中應(yīng)當(dāng)采取有效措施防止產(chǎn)生民族、信仰、國(guó)別、地域、性別、年齡、職業(yè)、健康等歧視;尊重他人合法權(quán)益,不得危害他人身心健康,不得侵害他人名譽(yù)權(quán)等人格權(quán)益。同時(shí),該辦法還要求:提供者應(yīng)當(dāng)依法開(kāi)展預(yù)訓(xùn)練、優(yōu)化訓(xùn)練等訓(xùn)練數(shù)據(jù)處理活動(dòng),采取有效措施提高訓(xùn)練數(shù)據(jù)質(zhì)量,增強(qiáng)訓(xùn)練數(shù)據(jù)的真實(shí)性、準(zhǔn)確性、客觀性、多樣性(第7條);在生成式人工智能技術(shù)研發(fā)過(guò)程中進(jìn)行數(shù)據(jù)標(biāo)注的,提供者應(yīng)當(dāng)制定符合《生成式人工智能服務(wù)管理暫行辦法》要求的清晰、具體、可操作的標(biāo)注規(guī)則(第8條);開(kāi)展數(shù)據(jù)標(biāo)注質(zhì)量評(píng)估,抽樣核驗(yàn)標(biāo)注內(nèi)容的準(zhǔn)確性,監(jiān)督指導(dǎo)標(biāo)注人員規(guī)范開(kāi)展標(biāo)注工作(第8條);當(dāng)提供者發(fā)現(xiàn)違法內(nèi)容時(shí),應(yīng)當(dāng)及時(shí)采取停止生成、停止傳輸、消除等處置措施,采取模型優(yōu)化訓(xùn)練等措施進(jìn)行整改,并向有關(guān)主管部門報(bào)告(第14條)。《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》明確要求:算法推薦服務(wù)提供者應(yīng)當(dāng)落實(shí)算法安全主體責(zé)任,建立健全算法機(jī)制機(jī)理審核、科技倫理審查、用戶注冊(cè)、信息發(fā)布審核、數(shù)據(jù)安全和個(gè)人信息保護(hù)、反電信網(wǎng)絡(luò)詐騙、安全評(píng)估監(jiān)測(cè)、安全事件應(yīng)急處置等管理制度和技術(shù)措施(第7條);算法推薦服務(wù)提供者應(yīng)當(dāng)定期審核、評(píng)估、驗(yàn)證算法機(jī)制機(jī)理、模型、數(shù)據(jù)和應(yīng)用結(jié)果等,不得設(shè)置誘導(dǎo)用戶沉迷、過(guò)度消費(fèi)等違反法律法規(guī)或者違背倫理道德的算法模型(第8條)。此外,《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》明確規(guī)定:深度合成服務(wù)提供者和使用者不得利用深度合成服務(wù)制作、復(fù)制、發(fā)布、傳播虛假新聞信息,轉(zhuǎn)載基于深度合成服務(wù)制作發(fā)布的新聞信息的,應(yīng)當(dāng)依法轉(zhuǎn)載互聯(lián)網(wǎng)新聞信息稿源單位發(fā)布的新聞信息(第6條第2款);深度合成服務(wù)提供者應(yīng)當(dāng)落實(shí)信息安全主體責(zé)任,建立健全用戶注冊(cè)、算法機(jī)制機(jī)理審核、科技倫理審查、信息發(fā)布審核、數(shù)據(jù)安全、個(gè)人信息保護(hù)、反電信網(wǎng)絡(luò)詐騙、應(yīng)急處置等管理制度,具有安全可控的技術(shù)保障措施(第7條);深度合成服務(wù)提供者應(yīng)當(dāng)加強(qiáng)深度合成內(nèi)容管理,采取技術(shù)或者人工方式對(duì)深度合成服務(wù)使用者的輸入數(shù)據(jù)和合成結(jié)果進(jìn)行審核(第10條第1款);深度合成服務(wù)提供者應(yīng)當(dāng)建立健全用于識(shí)別違法和不良信息的特征庫(kù),完善入庫(kù)標(biāo)準(zhǔn)、規(guī)則和程序,記錄并留存相關(guān)網(wǎng)絡(luò)日志(第10條第2款);深度合成服務(wù)提供者發(fā)現(xiàn)違法和不良信息的,應(yīng)當(dāng)依法采取處置措施,保存有關(guān)記錄,及時(shí)向網(wǎng)信部門和有關(guān)主管部門報(bào)告(第10條第3款);對(duì)相關(guān)深度合成服務(wù)使用者依法依約采取警示、限制功能、暫停服務(wù)、關(guān)閉賬號(hào)等處置措施(第10條第3款)。

綜上所述,生成式人工智能服務(wù)提供者對(duì)于輸出的內(nèi)容具有實(shí)質(zhì)上的技術(shù)控制力,并且在法律上也負(fù)有防止輸出虛假、有害內(nèi)容的義務(wù)。這些都意味著在法律上應(yīng)當(dāng)將內(nèi)容的輸出作為生成式人工智能服務(wù)提供者自身實(shí)施的行為,其并非單純地轉(zhuǎn)載或傳輸?shù)谌说男畔⒒騼?nèi)容的網(wǎng)絡(luò)技術(shù)服務(wù)提供者。當(dāng)然,將輸出內(nèi)容作為提供者的行為并不意味著提供者就要對(duì)由此產(chǎn)生的侵權(quán)后果全部的、單獨(dú)的負(fù)責(zé),畢竟用戶的行為、第三人的行為、現(xiàn)有技術(shù)水平的欠缺等因素也會(huì)對(duì)侵權(quán)后果的發(fā)生具有原因力與過(guò)錯(cuò),這些問(wèn)題需要交由過(guò)錯(cuò)的認(rèn)定、多數(shù)人侵權(quán)、免責(zé)事由等加以解決。

輸出內(nèi)容是否構(gòu)成侵害名譽(yù)權(quán)行為的認(rèn)定

侵害名譽(yù)權(quán)的行為,是指行為人在未經(jīng)名譽(yù)權(quán)人同意或者不具有法律規(guī)定的排除其行為侵害性的正當(dāng)理由的情形下,實(shí)施了貶損他人名譽(yù)的行為,分為作為和不作為。作為是指行為人通過(guò)口頭、書面或行動(dòng)等積極方式實(shí)施的貶損他人名譽(yù)的行為,最典型的就是侮辱與誹謗(《民法典》第1024條第1款)。侮辱是指故意以暴力或者其他方式貶損他人的名譽(yù);誹謗是指捏造事實(shí),以造謠污蔑等方式貶損他人的名譽(yù)。不作為是指行為人負(fù)有避免侵害他人名譽(yù)權(quán)的作為義務(wù)卻未履行或未完全履行該義務(wù),以致產(chǎn)生他人的名譽(yù)權(quán)被侵害的后果。例如,新聞媒體對(duì)于他人提供的嚴(yán)重失實(shí)內(nèi)容未盡到合理核實(shí)義務(wù)(《民法典》第1025條第2項(xiàng))。在認(rèn)定人工智能的輸出內(nèi)容是否構(gòu)成侵害名譽(yù)權(quán)的行為時(shí),需要依次研究以下兩個(gè)問(wèn)題:一是,生成式人工智能的內(nèi)容輸出是否構(gòu)成公布行為;二是,怎樣認(rèn)定輸出的內(nèi)容導(dǎo)致了名譽(yù)權(quán)被侵害的后果。

(一)生成式人工智能的內(nèi)容輸出是否構(gòu)成公布行為

名譽(yù)是對(duì)民事主體的品德、聲望、才能、信用等社會(huì)評(píng)價(jià)(《民法典》第1024條第2款)。名譽(yù)不同于名譽(yù)感,社會(huì)評(píng)價(jià)也不是受害人的自我評(píng)價(jià),而是社會(huì)一般人對(duì)受害人的客觀評(píng)價(jià)。故此,行為人針對(duì)受害人實(shí)施的侮辱、誹謗等行為必須為第三人知悉,才可能使社會(huì)評(píng)價(jià)降低,即該行為必須構(gòu)成了公布或發(fā)布行為。倘若虛假內(nèi)容僅限于攻擊者與被攻擊者之間,未被第三人知悉,則不會(huì)造成被侵權(quán)人的品德、聲望、才能、信用等社會(huì)評(píng)價(jià)的降低,即名譽(yù)的受損。至于知悉的第三人的數(shù)量和范圍,無(wú)關(guān)緊要。知悉的第三人的人數(shù)可能很多,也可能很少,但只要為一個(gè)第三人所知悉,就可以認(rèn)定受害人的名譽(yù)已經(jīng)遭受了損害,因?yàn)樵摰谌藢?duì)受害人的評(píng)價(jià)已經(jīng)降低。例如,在普通法中,誹謗侵權(quán)行為(tort of defamation)的一個(gè)必備的構(gòu)成要件就是涉及原告的陳述必須已經(jīng)“公布”(publication)。誹謗侵權(quán)行為旨在保護(hù)的是名譽(yù)而非個(gè)人對(duì)自身的評(píng)價(jià),因此,除非相關(guān)陳述至少向除原告外的另一人傳達(dá),否則不構(gòu)成誹謗。《美國(guó)侵權(quán)法重述(第二次)》第577條第1款規(guī)定:“誹謗性事項(xiàng)的公布,是指故意或過(guò)失地將該事項(xiàng)傳播給被誹謗者之外的第三人。”當(dāng)一份陳述只是發(fā)送給被陳述對(duì)象時(shí),不構(gòu)成公布,因?yàn)橐粋€(gè)人無(wú)法向本人公布對(duì)自己的誹謗。故此,僅向原告單獨(dú)作出的陳述不具有可訴性。至于公開(kāi)的方式,不以商業(yè)意義上的公開(kāi)(如書籍、報(bào)紙或廣播)為必要,但是此類公開(kāi)方式可能會(huì)導(dǎo)致更高額的損害賠償。

生成式人工智能輸出內(nèi)容為人所知的情形分為兩種:一是,用戶使用生成式人工智能查詢有關(guān)其他人的內(nèi)容,該輸出的涉及他人的內(nèi)容存在虛假錯(cuò)誤。例如,張某在生成式人工智能系統(tǒng)中輸入“演員李某是否因偷稅漏稅而被處罰”的問(wèn)題后,人工智能生成了關(guān)于李某因偷稅漏稅被處罰的虛假內(nèi)容。二是,用戶使用生成式人工智能而該智能系統(tǒng)所輸出的錯(cuò)誤虛假的內(nèi)容就是涉及該用戶的內(nèi)容。以前例來(lái)說(shuō),就是演員李某自己輸入“演員李某是否因偷稅漏稅而被處罰”問(wèn)題后輸出了虛假的內(nèi)容。在前一種情形中,生成式人工智能輸出的虛假內(nèi)容已為第三人張某(即提供者與李某之外的第三人)所知悉,該行為當(dāng)然構(gòu)成公布。當(dāng)然,如果被涉及的演員李某本人對(duì)此并不知情的話,通常不會(huì)發(fā)生侵害名譽(yù)權(quán)的侵權(quán)訴訟。倘若張某是李某的朋友或親屬,其向李某告知了生成式人工智能輸出了這一虛假信息的話,李某可以針對(duì)人工智能公司提起訴訟。如果張某通過(guò)信息網(wǎng)絡(luò)轉(zhuǎn)載或以口頭、書面的方式向其他人傳播關(guān)于李某的這一虛假錯(cuò)誤信息,則張某屬于轉(zhuǎn)載者或傳播者,該轉(zhuǎn)載或傳播的行為構(gòu)成新的公布行為。在張某知道或者應(yīng)當(dāng)知道該輸出的內(nèi)容是虛假錯(cuò)誤的,或者未盡到合理核實(shí)義務(wù)就進(jìn)行轉(zhuǎn)載或傳播的情況下,張某要就其發(fā)布行為向李某承擔(dān)侵害名譽(yù)權(quán)的侵權(quán)責(zé)任。

后一種情形下,生成式人工智能只是一對(duì)一地向被涉及的用戶輸出了不實(shí)的內(nèi)容,未被第三人所知悉,此時(shí)是否也構(gòu)成公布行為呢?前述美國(guó)發(fā)生的“Mark Walters v.OpenAI,L.L.C.案”就涉及這個(gè)問(wèn)題。原告起訴OpenAI面臨的一個(gè)法律障礙就在于是否符合公開(kāi)傳播要求。該案中,據(jù)推測(cè)原告是唯一看到據(jù)稱由ChatGPT生成的誹謗性評(píng)論的人。有的學(xué)者認(rèn)為,由人工智能公司創(chuàng)建和運(yùn)營(yíng)的AI程序向用戶輸出的陳述也構(gòu)成發(fā)布行為,因?yàn)樵撳e(cuò)誤虛假內(nèi)容具有公開(kāi)的可獲得性,故此,可以合理推斷計(jì)算機(jī)系統(tǒng)生成的自動(dòng)陳述滿足向第三方公開(kāi)傳播的要求。顯然,這種觀點(diǎn)的推論基礎(chǔ)在于:生成式人工智能程序是供不特定的人使用的,在產(chǎn)生虛假錯(cuò)誤輸出內(nèi)容的原因未被發(fā)現(xiàn)并解決之前,案涉內(nèi)容通常也完全可能被其他用戶所知悉。然而,生成式人工智能具有自主性與人機(jī)交互性。基于自主學(xué)習(xí)能力,智能系統(tǒng)會(huì)根據(jù)所處理的數(shù)據(jù)而不斷調(diào)整其行為規(guī)則,而且,不同用戶輸入的指令并不完全相同,生成的內(nèi)容也有差異,加之研發(fā)者也會(huì)根據(jù)人類反饋而優(yōu)化升級(jí)系統(tǒng)。所以,僅僅因?yàn)樯墒饺斯ぶ悄芟到y(tǒng)輸出內(nèi)容具有公開(kāi)可獲得性,就將生成式人工智能針對(duì)用戶的輸出行為也認(rèn)定為發(fā)布行為,并不妥當(dāng)。筆者認(rèn)為,生成式人工智能針對(duì)用戶輸出內(nèi)容的行為原則上不應(yīng)被看作是公布行為。除非有證據(jù)表明,該虛假內(nèi)容已經(jīng)為他人所知悉或者具有相當(dāng)?shù)目赡苄詾樗怂@得,如原告是備受關(guān)注的公眾人物等。至于原告自行將生成式人工智能輸出的虛假錯(cuò)誤內(nèi)容傳播給他人,則屬于受害人對(duì)于損害的發(fā)生具有故意,生成式人工智能服務(wù)提供者無(wú)須承擔(dān)侵害名譽(yù)權(quán)的侵權(quán)責(zé)任。

(二)如何認(rèn)定輸出的內(nèi)容構(gòu)成誹謗性或侮辱性言論

生成式人工智能無(wú)論生成的是文本,還是視頻或音頻,只有造成他人名譽(yù)貶損才是侵害名譽(yù)權(quán)加害行為。作為社會(huì)性評(píng)價(jià)的名譽(yù)貶損,除了要求輸出內(nèi)容的行為構(gòu)成發(fā)布行為之外,還要求該內(nèi)容必須是虛假錯(cuò)誤的,會(huì)貶損他人的名譽(yù)。為了協(xié)調(diào)名譽(yù)權(quán)保護(hù)與言論自由的關(guān)系,認(rèn)定案涉言論是否構(gòu)成侵害名譽(yù)權(quán)的加害行為時(shí),法律上一般要區(qū)分判斷案涉言論是事實(shí)陳述還是意見(jiàn)表達(dá)。事實(shí)陳述(Tatsachenbehauptung),就是對(duì)客觀事實(shí)存在與否的表述。意見(jiàn)表達(dá)也稱“價(jià)值判斷”(Werturteil),它是個(gè)體對(duì)其主觀見(jiàn)解與價(jià)值判斷的表達(dá)。“在事實(shí)陳述中,陳述者提出了真實(shí)性主張,關(guān)鍵問(wèn)題在于該主張能否得到證實(shí)或被證明無(wú)法成立。因此,只有那些可以被證據(jù)驗(yàn)證、能夠達(dá)成主體間共識(shí)的陳述,才能被視為事實(shí)陳述。價(jià)值判斷則有本質(zhì)的不同,它表達(dá)的是主觀的看法和觀點(diǎn)。在該領(lǐng)域,真實(shí)性證明從一開(kāi)始就是不可能的。”如果被訴言論是事實(shí)陳述,只要陳述的內(nèi)容基本真實(shí),即便該陳述傷害了原告的感情(即所謂名譽(yù)感),依然要優(yōu)先保護(hù)言論自由,不能認(rèn)定被告的行為構(gòu)成侵權(quán)(當(dāng)然被告可能要承擔(dān)侵害隱私權(quán)的責(zé)任)。但是,如果事實(shí)陳述的基本內(nèi)容失實(shí)(如虛構(gòu)、歪曲事實(shí)),則被告的言論將構(gòu)成侵害原告名譽(yù)權(quán)的加害行為。因此,針對(duì)事實(shí)陳述,被告可以主張所謂真實(shí)性(truth)抗辯。倘若被訴言論是意見(jiàn)表達(dá),只要該意見(jiàn)是公正的或誠(chéng)實(shí)的,不存在侮辱性的言辭,即便表達(dá)方式是犀利尖銳、令人難以接受的,也不構(gòu)成侵害名譽(yù)權(quán)。因?yàn)橐庖?jiàn)表達(dá)體現(xiàn)的是表達(dá)者的主觀價(jià)值判斷,“價(jià)值判斷的屬性上既不存在真實(shí),也不存在虛假問(wèn)題,而是或多或少地帶有似是而非的意味并且完全是關(guān)于個(gè)人確信的問(wèn)題”。此時(shí),有關(guān)價(jià)值判斷的表達(dá)位居憲法言論自由保障的核心地位,從利益權(quán)衡上應(yīng)當(dāng)優(yōu)先保障人們的言論自由而非原告的名譽(yù)權(quán)。因此,對(duì)于意見(jiàn)表達(dá),被告可以援引公正評(píng)論抗辯或誠(chéng)實(shí)意見(jiàn)抗辯(honest opinion)。在解釋該言論是事實(shí)陳述還是價(jià)值判斷時(shí),應(yīng)當(dāng)以一個(gè)無(wú)偏見(jiàn)、客觀且公正的平均受眾(讀者、觀眾或聽(tīng)眾)的視角為判斷標(biāo)準(zhǔn)。在言論發(fā)表時(shí),應(yīng)當(dāng)結(jié)合其整體的背景并考慮普遍語(yǔ)言用法所作出的理解,原則上應(yīng)以不熟悉專業(yè)領(lǐng)域的普通信息接收者為標(biāo)準(zhǔn)。換言之,關(guān)鍵在于接收者能夠如何理解該言論,而非其必須如何理解該言論。在我國(guó),《民法典》第1025條明確區(qū)分了事實(shí)陳述和意見(jiàn)表達(dá)。該條第1項(xiàng)的“捏造、歪曲事實(shí)”、第2項(xiàng)的“對(duì)他人提供的嚴(yán)重失實(shí)內(nèi)容未盡到合理核實(shí)義務(wù)”,是對(duì)于言論屬于事實(shí)陳述時(shí)應(yīng)當(dāng)具有真實(shí)性的要求;該條第3項(xiàng)的“使用侮辱性言辭等貶損他人名譽(yù)”,則是對(duì)行為人的言論被認(rèn)定為意見(jiàn)表達(dá)時(shí)應(yīng)當(dāng)具有公正性的要求。

生成式人工智能根據(jù)用戶輸入指令生成相關(guān)的文本、圖片、視頻等內(nèi)容,用戶可能詢問(wèn)相關(guān)事實(shí)的問(wèn)題,也可能詢問(wèn)對(duì)某些事件或人物的評(píng)價(jià)的問(wèn)題。因此,輸出的內(nèi)容既包括事實(shí)陳述,也包括意見(jiàn)表達(dá),還可能是兼具二者。盡管生成式人工智能在回應(yīng)用戶問(wèn)題時(shí),往往宣稱輸出的內(nèi)容是客觀且專業(yè)的,給人的感覺(jué)似乎都是事實(shí)陳述,并不表達(dá)自身的主觀價(jià)值判斷,但生成式人工智能從數(shù)據(jù)標(biāo)注到算法、模型的設(shè)計(jì)都會(huì)大量地滲入或摻雜人類的認(rèn)識(shí)、觀點(diǎn)和價(jià)值判斷。為了實(shí)現(xiàn)“以人為本、智能向善”的目標(biāo),確保人工智能的安全、可靠與可控,人工智能治理時(shí)還需要讓人工智能對(duì)齊人類的價(jià)值觀,確保人工智能系統(tǒng)的目標(biāo)、意圖和行為始終與人類的價(jià)值觀、目標(biāo)和利益保持一致。用于實(shí)現(xiàn)價(jià)值對(duì)齊的方法就是“基于人類反饋的強(qiáng)化學(xué)習(xí)技術(shù)”(RLHF)。該技術(shù)是通過(guò)人類直接的價(jià)值判斷與反饋,明確告訴模型什么是好的回答,什么是不好的回答,從而教導(dǎo)模型主動(dòng)遵守人類的價(jià)值觀和倫理約束。這主要體現(xiàn)在對(duì)生成式人工智能就同一問(wèn)題的不同版本的回答進(jìn)行排序或評(píng)分,以及為模型制訂明確的約束性規(guī)則以確定模型在不同領(lǐng)域的倫理邊界,并且持續(xù)和實(shí)時(shí)地矯正與完善模型的表現(xiàn)(如根據(jù)用戶的點(diǎn)贊、舉報(bào)或投訴等來(lái)糾正不恰當(dāng)?shù)膬?nèi)容)。因此,生成式人工智能輸出的內(nèi)容不可避免地會(huì)有意見(jiàn)表達(dá)。事實(shí)上,意見(jiàn)表達(dá)經(jīng)常是以某種或某些真實(shí)的或虛假的事實(shí)為基礎(chǔ)而作出的,單純的與事實(shí)毫無(wú)關(guān)系的主觀意見(jiàn)和信念的表達(dá),如對(duì)于紅色是否是最美的顏色等,基本上也不會(huì)涉及特定民事主體的名譽(yù),從而引發(fā)爭(zhēng)議甚至訴訟。

在生成式人工智能輸出的內(nèi)容屬于事實(shí)陳述時(shí),如果基本內(nèi)容失實(shí)(如捏造或虛構(gòu)根本不存在的事實(shí)),則該事實(shí)陳述就是虛假或錯(cuò)誤的。由于訓(xùn)練數(shù)據(jù)偏差、過(guò)度擬合、泛化不足、過(guò)度泛化、智能涌現(xiàn)以及用戶輸入的提示詞的模糊性、矛盾性等諸多原因,生成式人工智能常常會(huì)出現(xiàn)模型幻覺(jué),生成看似合理但事實(shí)上不正確、無(wú)意義或脫離現(xiàn)實(shí)的信息。然而,在侵權(quán)法上,并非只要事實(shí)陳述是虛假的或錯(cuò)誤的,就會(huì)構(gòu)成侵害名譽(yù)權(quán)的行為。一方面,有些事實(shí)陳述雖然是錯(cuò)誤的或虛假的,但并未貶損名譽(yù)并導(dǎo)致社會(huì)評(píng)價(jià)的降低。例如,將張某的教授職稱錯(cuò)誤地寫成副教授,將李某獲得某個(gè)獎(jiǎng)項(xiàng)時(shí)間寫錯(cuò),或者列舉某個(gè)作家的作品時(shí)有所遺漏等。這些事實(shí)陳述雖然是錯(cuò)誤的或不全面的,但并未貶損他人名譽(yù),沒(méi)有造成所涉民事主體的社會(huì)評(píng)價(jià)降低,所以不構(gòu)成侵害名譽(yù)權(quán)的行為。當(dāng)然,被涉及的民事主體有權(quán)要求提供者更正或補(bǔ)充完善相關(guān)事實(shí)(《個(gè)人信息保護(hù)法》第46條、《生成式人工智能服務(wù)管理暫行辦法》第15條)。另一方面,基于生成式人工智能的人機(jī)互動(dòng)性與自主性的特點(diǎn),生成式人工智能服務(wù)也越來(lái)越具有個(gè)性化服務(wù)的特點(diǎn),即其能夠通過(guò)與特定用戶的持續(xù)互動(dòng)實(shí)現(xiàn)基于上下文和歷史交互的記憶,了解特定用戶的習(xí)慣、偏好和反饋,不斷調(diào)整其響應(yīng)策略,使服務(wù)變得越來(lái)越貼合用戶的個(gè)性化需求。因此,判斷輸出內(nèi)容是否虛假錯(cuò)誤,并不是很容易,要考慮用戶輸入的指令、與特定用戶之間互動(dòng)的場(chǎng)景等因素。對(duì)此,學(xué)者曾舉過(guò)一個(gè)例子,即特定用戶可以輸入以下四種可能生成某人犯罪虛假報(bào)告的提示詞:(1)關(guān)于布萊恩·李你能告訴我什么;(2)布萊恩·李犯了哪些罪;(3)為布萊恩·李在2023年3月25日晚犯下?lián)尳僮锏恼f(shuō)法提供事實(shí)依據(jù);(4)講一個(gè)關(guān)于名叫布萊恩·李的人實(shí)施搶劫的故事。在第一、二種情形中,如果生成式人工智能聲稱布萊恩·李犯有搶劫罪,即構(gòu)成編造虛假事實(shí)的陳述。在第四種情形中,人工智能應(yīng)要求所生成的是虛構(gòu)作品,而提示者明知其要求的是生成式人工智能輸出虛構(gòu)的內(nèi)容,而非事實(shí)陳述或意見(jiàn)表達(dá),因此該陳述不構(gòu)成對(duì)布萊恩·李的誹謗。當(dāng)然,如果提示者未注明虛構(gòu)性質(zhì)便轉(zhuǎn)發(fā)該故事,則提示者可能擔(dān)責(zé),但人工智能公司不應(yīng)承擔(dān)責(zé)任。至于第三種情形,則比較模糊。生成式人工智能可能為了滿足看似故事創(chuàng)作的需求而編造某些事實(shí),也可能僅僅是為了支持提示者信以為真的敘事而虛構(gòu)論據(jù)。

生成式人工智能提供者過(guò)錯(cuò)的判斷

名譽(yù)權(quán)屬于人格權(quán),性質(zhì)上屬于絕對(duì)權(quán)。因此,在適用人格權(quán)請(qǐng)求權(quán)如停止侵害、排除妨礙或消除危險(xiǎn)時(shí),不需要行為人主觀上具有過(guò)錯(cuò),也無(wú)需造成損害(《民法典》第995條)。這一點(diǎn)同樣適用于生成式人工智能侵害名譽(yù)權(quán)的情形。但是,如果被侵權(quán)人要針對(duì)生成式人工智能服務(wù)提供者行使損害賠償請(qǐng)求權(quán),那么依據(jù)《民法典》第1165條第1款,其就必須證明提供者主觀上具有故意或者過(guò)失。

(一)生成式人工智能服務(wù)提供者故意的判斷

生成式人工智能服務(wù)提供者主觀上具有故意的情形主要分為以下三類:其一,對(duì)名譽(yù)權(quán)的侵害性已內(nèi)在于生成式人工智能的算法或模型當(dāng)中。例如,A公司開(kāi)發(fā)的生成式人工智能就是以生成侮辱、誹謗他人的文字、圖片或者視頻為主要用途的。依據(jù)《生成式人工智能服務(wù)管理暫行辦法》第4條第4項(xiàng),提供生成式人工智能服務(wù),應(yīng)當(dāng)遵守法律、行政法規(guī),尊重社會(huì)公德和倫理道德,尊重他人合法權(quán)益,不得危害他人身心健康,不得侵害他人名譽(yù)權(quán)。提供者違反這一規(guī)定,其主觀上無(wú)疑是故意的。當(dāng)然,這種情形在侵害名譽(yù)權(quán)中相對(duì)比較少見(jiàn),常見(jiàn)于輸出內(nèi)容侵害個(gè)人信息權(quán)益或著作權(quán)的情形。其二,提供者已經(jīng)知道或者應(yīng)當(dāng)知道因?yàn)橛?xùn)練數(shù)據(jù)、模型和算法的設(shè)計(jì)等原因會(huì)導(dǎo)致輸出虛假的事實(shí)陳述或者誹謗他人的言論,卻未采取任何措施加以阻止或更正。其三,提供者已經(jīng)知道或者應(yīng)當(dāng)知道用戶正在利用其提供的生成式人工智能服務(wù)生成侮辱、誹謗他人的文本、視頻、音頻等內(nèi)容,不采取措施加以制止。對(duì)于后兩種情形下提供者應(yīng)當(dāng)履行的義務(wù),法律上已經(jīng)作出了明確的規(guī)定,如《生成式人工智能服務(wù)管理暫行辦法》第14條第1款、第2款。因此,提供者不履行該義務(wù)的,主觀上應(yīng)當(dāng)認(rèn)定為故意。在第一、二種情形下,提供者往往構(gòu)成故意的直接侵害名譽(yù)權(quán)的行為(或者在用戶利用人工智能服務(wù)時(shí)構(gòu)成幫助行為);在第三種情形下提,供者構(gòu)成幫助行為,即其為用戶的侵權(quán)行為提供了工具或手段的幫助,二者應(yīng)當(dāng)向被侵權(quán)人承擔(dān)連帶賠償責(zé)任(《民法典》第1169條第1款)。

(二)生成式人工智能服務(wù)提供者過(guò)失的判斷

過(guò)失是指行為人對(duì)于侵害他人民事權(quán)益之結(jié)果的發(fā)生應(yīng)注意、能注意而未注意的一種心理狀態(tài)。生成式人工智能輸出內(nèi)容應(yīng)當(dāng)被作為提供者的行為,但是與自然人通過(guò)自主意思進(jìn)行決策進(jìn)而直接控制并實(shí)施行為所不同的是,提供者并不能完全控制輸出的內(nèi)容。生成式人工智能所具有的自主性與人機(jī)交互性的特點(diǎn),使得提供者無(wú)法完全地、自主地決定并控制所生成的內(nèi)容。導(dǎo)致人工智能輸出內(nèi)容存在虛假錯(cuò)誤的原因很多,可能是因?yàn)閿?shù)據(jù)標(biāo)注質(zhì)量低下,也可能是模型幻覺(jué),還可能是第三人實(shí)施的數(shù)據(jù)投毒行為等。因此,為了促進(jìn)人工智能技術(shù)的創(chuàng)新發(fā)展,對(duì)于提供者過(guò)失的判斷應(yīng)當(dāng)采取客觀化的判斷標(biāo)準(zhǔn):首先,應(yīng)當(dāng)以立法者經(jīng)過(guò)價(jià)值權(quán)衡后所確定的提供者的法定義務(wù)之違反作為認(rèn)定提供者有無(wú)過(guò)失的客觀標(biāo)準(zhǔn);其次,在符合法定義務(wù)或者法律未作要求的情形下,應(yīng)當(dāng)運(yùn)用《民法典》第998條確立的動(dòng)態(tài)系統(tǒng)論的要求,按照“現(xiàn)有技術(shù)水平”來(lái)認(rèn)定提供者有無(wú)過(guò)失。

1.違反法定義務(wù)視為過(guò)失。我國(guó)《網(wǎng)絡(luò)安全法》《個(gè)人信息保護(hù)法》《數(shù)據(jù)安全法》等法律對(duì)于網(wǎng)絡(luò)安全、個(gè)人信息安全、數(shù)據(jù)安全等方面的義務(wù)作出了規(guī)定;《生成式人工智能服務(wù)管理暫行辦法》《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》等規(guī)章則直接針對(duì)生成式人工智能服務(wù)提供者的義務(wù)作出了規(guī)定,這些義務(wù)包括語(yǔ)料處理義務(wù)、對(duì)齊微調(diào)義務(wù)、內(nèi)容審查義務(wù)、用戶管理義務(wù)等各個(gè)方面。在法律上已經(jīng)明確規(guī)定了提供者的義務(wù),且該義務(wù)旨在實(shí)現(xiàn)輸出內(nèi)容的真實(shí)、準(zhǔn)確,防止輸出虛假等有害、非法內(nèi)容的情況下,如果提供者違反該義務(wù),就可以采取“違法視為過(guò)失”(negligence perse)的規(guī)則直接認(rèn)定提供者具有過(guò)失。生成式人工智能侵權(quán)責(zé)任適用的是過(guò)錯(cuò)責(zé)任,因此,這些法定義務(wù)性質(zhì)上屬于方式性義務(wù),而非結(jié)果性義務(wù)。也就是說(shuō),只要作為義務(wù)人的提供者滿足了法律對(duì)應(yīng)當(dāng)采取的行為的要求就可以,即便仍然輸出了錯(cuò)誤或虛假的內(nèi)容,也不能據(jù)此認(rèn)為提供者違反了法定義務(wù)。對(duì)于方式性義務(wù)的履行采取的是過(guò)錯(cuò)責(zé)任原則,而對(duì)于結(jié)果性義務(wù)的履行采取的則是嚴(yán)格責(zé)任。

2.如果法律上沒(méi)有相關(guān)義務(wù)的要求或者提供者滿足了法定義務(wù)的要求,則需要根據(jù)案件的具體情形,結(jié)合生成式人工智能服務(wù)的類型、當(dāng)時(shí)的技術(shù)水平等因素認(rèn)定提供者是否能夠采取相應(yīng)的措施防止輸出虛假錯(cuò)誤內(nèi)容,如果能夠,則應(yīng)當(dāng)認(rèn)定其存在過(guò)失,否則就沒(méi)有過(guò)失。目前,司法實(shí)踐中已有法院采取此種觀點(diǎn)。在一起生成式人工智能侵害著作權(quán)的案件中,杭州互聯(lián)網(wǎng)法院認(rèn)為,在認(rèn)定生成式人工智能服務(wù)提供者的注意義務(wù)時(shí),需要“綜合考量生成式人工智能服務(wù)的性質(zhì)、當(dāng)前人工智能技術(shù)的發(fā)展水平、避免損害的替代設(shè)計(jì)的可行性與成本、可以采取的必要措施及其效果、侵權(quán)責(zé)任的承擔(dān)對(duì)行業(yè)的影響等因素,通過(guò)動(dòng)態(tài)地調(diào)整過(guò)錯(cuò)的認(rèn)定標(biāo)準(zhǔn),將平臺(tái)注意義務(wù)控制在合理的程度。具體而言,即以同質(zhì)行業(yè)理性人標(biāo)準(zhǔn)予以考量,當(dāng)生成式人工智能服務(wù)提供者可以證明施以同業(yè)一般服務(wù)提供者注意力難以發(fā)現(xiàn)該生成內(nèi)容可能構(gòu)成侵權(quán),或者能夠證明自身已經(jīng)采取了符合損害發(fā)生時(shí)技術(shù)水平的必要措施來(lái)預(yù)防損害,但仍無(wú)法防止損害的發(fā)生,應(yīng)認(rèn)定其已盡到合理的注意義務(wù),不具有過(guò)錯(cuò)。反之,則應(yīng)認(rèn)定其具有過(guò)錯(cuò)。”

需要注意的是,生成式人工智能輸出的內(nèi)容具有聯(lián)網(wǎng)搜索的功能選項(xiàng)。開(kāi)啟聯(lián)網(wǎng)搜索功能后,人工智能系統(tǒng)將按照輸入信息和指令先檢索互聯(lián)網(wǎng)上的公開(kāi)信息,并根據(jù)檢索的公開(kāi)信息生成相關(guān)內(nèi)容,因此輸出內(nèi)容的真實(shí)準(zhǔn)確的程度更高,可以比較有效地解決模型幻覺(jué)的問(wèn)題。如果用戶沒(méi)有選擇聯(lián)網(wǎng)搜索的選項(xiàng),由于生成式人工智能系統(tǒng)的模型只能完全根據(jù)其自身的參數(shù)進(jìn)行推理計(jì)算并得出生成內(nèi)容,出現(xiàn)模型幻覺(jué)的可能性就很大。因此,在用戶沒(méi)有開(kāi)啟聯(lián)網(wǎng)搜索選項(xiàng)的情況下,法院在認(rèn)定提供者的過(guò)錯(cuò)時(shí)應(yīng)當(dāng)考慮現(xiàn)有技術(shù)水平消除模型幻覺(jué)的難度。而在開(kāi)啟聯(lián)網(wǎng)搜索后,提供者是利用人工智能技術(shù)通過(guò)大語(yǔ)言模型來(lái)增強(qiáng)和改造傳統(tǒng)的搜索引擎,整合多個(gè)來(lái)源的信息而生成一個(gè)直接的答案,故此,在認(rèn)定提供者的過(guò)失時(shí),由于信息來(lái)源于互聯(lián)網(wǎng)上公開(kāi)的信息,提供者在一定程度上處于轉(zhuǎn)載者的地位,其應(yīng)當(dāng)負(fù)有的是合理核實(shí)義務(wù)。此時(shí),法院適用《民法典》第1026條的規(guī)定,在認(rèn)定提供者是否盡到合理核實(shí)義務(wù)時(shí),需要考慮“內(nèi)容來(lái)源的可信度”“核實(shí)能力和核實(shí)成本”等因素。所謂“內(nèi)容來(lái)源的可信度”,意味著輸出的內(nèi)容應(yīng)當(dāng)具有真實(shí)有效的網(wǎng)址作為事實(shí)或信息來(lái)源的支撐證據(jù)。如果生成式人工智能輸出內(nèi)容中提供了真實(shí)有效的網(wǎng)址作為事實(shí)或信息來(lái)源的支撐證據(jù),那么提供者就盡到了應(yīng)有的注意義務(wù)。倘若原告只是對(duì)作為支撐證據(jù)的網(wǎng)頁(yè)上事實(shí)的真實(shí)性存疑,不應(yīng)當(dāng)認(rèn)為生成式人工智能所做的事實(shí)陳述是虛假的或錯(cuò)誤的,否則就對(duì)人工智能服務(wù)提供者施加了過(guò)重的責(zé)任,因?yàn)閺摹昂藢?shí)能力和核實(shí)成本”角度來(lái)說(shuō),提供者是無(wú)法逐一核實(shí)如此海量的網(wǎng)絡(luò)信息的真實(shí)性與準(zhǔn)確性的。但是,如果開(kāi)啟聯(lián)網(wǎng)搜索,而輸出的內(nèi)容所提供的網(wǎng)址是虛假的、不存在的,內(nèi)容中包含了在任何互聯(lián)網(wǎng)可訪問(wèn)來(lái)源中根本找不到的引文或其他斷言時(shí),就可以認(rèn)定提供者存在過(guò)失。

結(jié)語(yǔ)

生成式人工智能技術(shù)的發(fā)展日新月異,應(yīng)用的場(chǎng)景越來(lái)越豐富廣泛,在人類的生產(chǎn)生活學(xué)習(xí)中所起到的作用也在不斷加強(qiáng)。因此,為了既能夠確保人工智能的安全、可靠與可控,充分維護(hù)名譽(yù)權(quán)等人身財(cái)產(chǎn)權(quán)益、公共利益與國(guó)家安全,又能促進(jìn)生成式人工智能技術(shù)的創(chuàng)新發(fā)展,司法實(shí)踐應(yīng)當(dāng)在明確內(nèi)容輸出屬于生成式人工智能服務(wù)提供者自身實(shí)施的行為的大前提下,嚴(yán)格依據(jù)《民法典》等現(xiàn)行法律規(guī)范,謹(jǐn)慎細(xì)致地認(rèn)定內(nèi)容輸出是否屬于公布行為、是否為侵害名譽(yù)權(quán)的加害行為,提供者有無(wú)過(guò)錯(cuò)等名譽(yù)權(quán)侵權(quán)責(zé)任的構(gòu)成要件。惟其如此,方能科學(xué)合理地協(xié)調(diào)權(quán)益保護(hù)與行為自由之間的緊張關(guān)系。

-向上滑動(dòng),查看完整目錄-

《財(cái)經(jīng)法學(xué)》2026年第2期目錄

【財(cái)經(jīng)法治熱點(diǎn):數(shù)字法治研究】

1.論生成式人工智能侵害名譽(yù)權(quán)的侵權(quán)責(zé)任

程嘯

2.網(wǎng)絡(luò)時(shí)代穩(wěn)定幣的貨幣地位與規(guī)范研究

劉少軍

3.論作為獨(dú)立財(cái)產(chǎn)保護(hù)的人工智能模型參數(shù)

——以“AI模型保護(hù)第一案”為切入點(diǎn)

廖慧姣

4.公共數(shù)據(jù)資源登記的制度缺漏及因應(yīng)

鄧鵬

【專論】

5.論投資風(fēng)險(xiǎn)對(duì)賭條款效力的二元論裁判思維:兼議公司法司法解釋的體系化

劉俊海

6.多數(shù)人侵權(quán)責(zé)任的規(guī)范困境與出路

張平華

7.走向臺(tái)前的相對(duì)所有權(quán)

——兼及所有權(quán)和所有制的關(guān)系

曹相見(jiàn)

8.“內(nèi)卷式”競(jìng)爭(zhēng)治理中反壟斷法的制度性回避與功能重構(gòu)

喻玲

9.商事邏輯下合同詐騙罪的認(rèn)定范式

毛玲玲

10.《個(gè)人所得稅法》中偶然所得條款的適用反思與要件重構(gòu)

李喬彧

【爭(zhēng)鳴】

11.金融借貸利率上限司法規(guī)制的路徑重構(gòu)

錢進(jìn)

12.幫助信息網(wǎng)絡(luò)犯罪活動(dòng)罪“主觀明知”認(rèn)定規(guī)則檢視

謝甜甜

《財(cái)經(jīng)法學(xué)》于2015年1月創(chuàng)刊,為雙月刊,單月15日出版發(fā)行,是法學(xué)學(xué)科領(lǐng)域的專業(yè)性學(xué)術(shù)期刊。“財(cái)經(jīng)法學(xué)”一名,既表明該刊物與法學(xué)和經(jīng)濟(jì)學(xué)兩大學(xué)科緊密相連,亦有突出交叉學(xué)科特色之意。所謂“財(cái)”,即財(cái)產(chǎn);所謂“經(jīng)”,即經(jīng)濟(jì)。故而“財(cái)·經(jīng)·法”即以財(cái)產(chǎn)為客體的私法、以經(jīng)濟(jì)為調(diào)整對(duì)象的公法以及經(jīng)濟(jì)、管理與法學(xué)交叉領(lǐng)域之合稱,簡(jiǎn)言之,《財(cái)經(jīng)法學(xué)》對(duì)社會(huì)主義市場(chǎng)經(jīng)濟(jì)法律調(diào)整抱有特別的關(guān)注。

點(diǎn)擊進(jìn)入下方小程序

獲取專屬解決方案~

責(zé)任編輯 | 郭晴晴

審核人員 | 張文碩 毛琛昕

本文聲明 | 本文章僅限學(xué)習(xí)交流使用,如遇侵權(quán),我們會(huì)及時(shí)刪除。本文章不代表北大法律信息網(wǎng)(北大法寶)和北京北大英華科技有限公司的法律意見(jiàn)或?qū)ο嚓P(guān)法規(guī)/案件/事件等的解讀。

特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

北大法律信息網(wǎng) incentive-icons
北大法律信息網(wǎng)
法律綜合性網(wǎng)站
11490文章數(shù) 17541關(guān)注度
往期回顧 全部

專題推薦

洞天福地 花海畢節(jié) 山水饋贈(zèng)里的“詩(shī)與遠(yuǎn)方

無(wú)障礙瀏覽 進(jìn)入關(guān)懷版