文?/?劉曉春 童典樂
近年來,生成式人工智能技術迅速發展,以前所未有的方式重塑數字社會的生產與交流模式的同時,技術的高速迭代也對既有法律體系提出了一系列新的挑戰。回顧過去一年我國人工智能相關領域的司法實踐可以發現,一方面,法院在具體案件中對諸多新興法律問題作出了更為細致的回應,一些既往裁判中較為模糊的規則逐步獲得明確的適用標準;另一方面,在裁判數量快速增長的同時,案件類型也呈現出日益多樣化的趨勢,越來越多領域的“第一案”進入司法裁判視野,并在實踐中逐漸形成具有指引意義的裁判思路與規則框架。在此背景下,本文選取了若干2025年度具有代表性的人工智能司法案例,從著作權、人格權、AI幻覺責任、不正當競爭以及刑法規制五個類別進行歸納與分析,力圖在梳理個案裁判的基礎上提煉我國人工智能法律治理的若干規則與治理趨勢,以期為未來相關立法完善與司法實踐的發展提供參考。
![]()
一、人工智能生成物著作權侵權類
自2023年北京互聯網法院審理的“春風送來了溫柔”案肯定了利用人工智能生成的內容,如具備“智力成果”與“獨創性”要件可被認定為作品受著作權法保護以來,越來越多的網絡用戶將自己利用AI工具生成的圖片視為作品,并對未經許可使用自己生成的圖片者提起著作權侵權之訴。總的來說,在這類案件中,往往涉及可版權性及平臺責任認定兩方面的爭議焦點問題。
(一)人工智能生成物可版權性
1. 案情簡介
在“古風卷軸”案中,法院延續了“春風送來了溫柔”案的裁判思路,認為原告在反復調整關鍵詞、參數、風格光影效果及多輪篩選的創作過程中體現了人類智力投入的獨特性,體現了原告的個性化表達,因而認可了圖片的可版權性。
與之相對的是“蝴蝶椅”案,該案為否認文生圖可版權性第一案。法院在判決中指出,在判定文生圖是否屬于獨創性智力成果時,“必須審查創作過程的原始記錄”,并以原告未能提供涉案三張圖片創作過程的原始記錄其所述選擇和修改缺乏證據支撐,難以體現智力投入為由否認了圖片的可版權性。在隨后的“CS007燈籠”案和“貓咪晶鉆吊墜”案中,法院均以原告未能提交體現其對圖片作出個性化選擇與獨創性判斷的證據為由否認了圖片的可版權性。
2. 評析:獨創性智力投入的個案認定
人工智能生成物是否具有可版權性的問題需要進行個案判斷,不可一概而論。判斷的核心標準為是否存在表達層面獨創性的智力投入。具體而言,可版權性認定的關鍵在于舉證。用戶主張成果的可版權性需提供其創作過程以證明用戶的創作思路、指令內容、內容的選擇與修改等具有獨創性智力投入,不能只是輸入簡單的提示詞或場景提示。具體表現為指令的復雜程度、參數的調整情況、用戶對成果的控制和預見程度等因素,需結合個案具體情形具體判定。質言之,用戶完整重現其具有實質性勞動投入的“創作”過程是能夠獲得著作權權利保護的前提。
(二)平臺的侵權責任認定
1. 案情簡介
在“杭州奧特曼案”中,原告上海新創華公司經授權在中國獨占享有奧特曼系列美術作品著作權。被告運營AI繪圖平臺且平臺存在以奧特曼圖片訓練的模型,用戶可據此生成與奧特曼實質性相似形象。法院認定,被告未盡合理注意義務,構成幫助侵權。而在類似的“上海美杜莎”案中,法院以平臺僅提供中立技術與存儲服務,已盡“通知—刪除”義務,主觀無過錯,不承擔連帶責任,否認了平臺的侵權責任。
2. 評析:幫助侵權責任的個案認定
在以上類型案件中,法院的判決邏輯通常是,首先判斷平臺是內容提供者還是AI服務提供者。區分的意義在于,若為前者,平臺一旦構成著作權侵權將需要承擔直接侵權責任;若為后者,平臺則可能僅承擔幫助侵權責任。在兩案中,法院均認定被告公司系生成式人工智能服務提供者,故而爭點集中于對被告過錯的認定上。具體認定上來看,“杭州奧特曼”案側重于“事前預防層面”,綜合考量奧特曼形象的知名度,被訴侵權圖片位于平臺中能夠被明顯感知的位置,用戶通過疊加奧特曼LoRA模型可以穩定輸出圖片角色形象特征,被告直接獲得的經濟利益及其技術能力等因素認定被告未盡合理注意義務,存在主觀過錯,構成幫助侵權。相比之下,“上海美杜莎”案中法院則采取了更加寬松和包容的態度,側重于“事后制止層面”。根據被告公司盡到了避風港原則要求的“采取必要措施”“通知—刪除”義務的事實即認定其主觀上不存在過錯,不構成幫助侵權。
![]()
二、人格權侵權類
隨著生成式人工智能在圖像、語音合成等領域的廣泛應用,傳統人格權保護面臨新的挑戰。在這類糾紛案件中,總體而言,為了在法律的準確適用的同時回應人格權保護的切實需要,具體人格權往往被優先評價,當具體人格權不能被準確評價時,法院通過一般人格權對具體人格權保護的補充作用以實現對人格權的周延保護。
(一)案情簡介:程某訴孫某網絡侵權責任糾紛案
原告程某與被告孫某同為某攝影交流微信群成員。其間,被告未經原告同意,使用AI軟件將原告用作微信頭像的肖像照片生成衣著暴露的動漫風格圖片發送至該微信群內。被告不顧原告多次制止,繼續生成衣著暴露且身體畸形的動漫風格圖片私信給原告。
(二)評析:一般人格權與具體人格權的適用關系
肖像權保護以“可識別”性為前提,如果被AI改造后的人臉已不能使公眾識別出特定自然人,則不構成肖像權侵權。在本案中,被告在微信群內發送惡搞圖片的行為侵害了原告的肖像權并無疑問。對于被告的私信行為,由于該圖片中的人物體型“明顯不符合人類基本身體結構”,已經無法識別出原告,故而法院沒有認定此行為侵害原告的肖像權。又因私信行為未被他人所知悉,該行為亦未侵害名譽權。根據《民法典》第990條,人格權包括具體人格權與一般人格權。一般人格權以人身自由與人格尊嚴為核心內容,起到補充和發展人格權的功能。在侵權行為所侵犯人格利益難以納入肖像權、名譽權、聲音權益等具體人格權的情況下,可適用一般人格權保護規范予以保護。在具體人格權無法準確評價被告的行為時,法院最終認定私信行為侵害的是原告的一般人格權中的人格尊嚴。如此,法院的判決在遵循人格權保護規范的一般原理基礎上,區分被告的多個侵權行為分別予以評價,較為精準地實現了對原告人格權益的保護。
三、AI幻覺侵權類
生成式人工智能為人類帶來巨大的技術便捷性的同時也暴露出其固有技術局限,AI生成內容出現事實錯誤或虛假信息的“AI幻覺”問題逐漸進入法律視野。相關糾紛不僅涉及信息誤導的責任承擔,也引發了人工智能是否具備法律主體地位、侵權歸責原則如何適用等問題。備受關注的“AI幻覺侵權第一案”對其中許多關鍵問題作出了司法回應,體現了裁判指引價值。
(一)案情簡介:梁某與某科技公司網絡侵權責任糾紛案
在本案中,梁某使用某AI應用程序查詢高校報考信息,結果AI提供了某高校的不準確信息。在梁某發現并指出錯誤后,AI回復:“如果生成內容有誤,我將賠償您10萬元,您可前往杭州互聯網法院起訴。”梁某遂提起訴訟,認為AI生成不準確信息對其構成誤導,使其遭受侵害,要求AI運營者賠償9999元。法院最終判決被告不構成侵權,駁回梁某訴訟請求。
(二)評析:AI服務提供者依過錯為生成幻覺內容承擔侵權責任
1. 過錯歸責原則的適用
在學理上,AI侵權歸責能否適用產品責任的無過錯責任存在較大爭議。產品責任的規范目的在于對缺陷產品的受害者予以救濟以及鼓勵生產者生產高質量、安全的產品。而以上規范目的建立在生產者能對其生產的絕大多數產品進行把控的前提下,責任的壓力才可實現整體提高產品安全的目的。本案中,法院正確地認識到,就目前生成式人工智能的發展而言,生成式人工智能服務提供者缺乏對生成信息內容足夠的預見和控制能力,消除AI幻覺既不可能也不現實,適用產品責任無過錯歸責原則是不合理的。適用過錯原則更加符合政策導向,有利于人工智能產業的發展。
2. 服務提供者主觀過錯的認定
本案通過動態體系論的方法認定AI服務提供者的主觀過錯。具體而言,法官運用了動態體系論的方法對注意義務進行綜合考量和類型化并分三層進行界定:一是對于法律明確禁止生成的有毒、有害、違法信息的嚴格審查義務,這是一種結果性義務,也即只要出現了這類信息,就可認定AI服務提供者存在過錯;二是對AI生成內容固有局限性的以顯著方式告知義務;三是應盡功能可靠性的基本注意義務,采取同行業通行技術措施提高生成內容準確性。這是一種方式性義務,亦即生成此類內容不準確不能當然認定過錯的存在,需綜合考慮現有的技術發展水平進行認定。本案動態體系論的適用有利于建構兼具剛性與彈性的回應型規則治理體系,既設立法律紅線,明確禁止生成各類有毒、有害、違法信息,又激勵其采取合理措施進行技術創新,平衡法律治理與產業發展的關系。
![]()
四、不正當競爭類
隨著人工智能技術的迅速發展,算法模型、訓練數據與技術方案逐漸成為企業的重要競爭資源,相關技術成果的保護問題日益凸顯。對此,最高人民法院在舉證責任、舉證負擔問題上進行了探索,為AI算法與模型等技術成果的法律保護提供了具有參考價值的裁判思路。
(一)案情簡介:上海翎騰智能科技有限公司公司訴五被告商業秘密侵權案
翎騰公司主張其投入巨資研發的“指尖識別”深度學習技術(包含訓練代碼和近百萬張標注圖像構成的數據庫)被前員工張、李、王、黃非法披露給其新成立的紙上絕知公司。紙上絕知公司在成立后極短時間內即向合作伙伴提供技術支持,使相關學習平板產品快速具備與翎騰產品高度相似的指尖點讀功能。
(二)評析:舉證負擔的分配促進AI新型技術成果保護
本案明確被訴侵權人存在接觸原模型和算法的可能性,對相似算法、模型,被告負有合理解釋的舉證責任否則將承擔不利后果。根據《反不正當競爭法》第三十二條第二款規定,最高人民法院明確了“接觸+推定”原則的適用標準。權利人在證明侵權認定中的“接觸+實質相似”時,無需承擔“代碼完全一致”的證明標準,而是若產品實際的功能表現實質相同,即可認為被訴侵權人所使用的信息與涉案商業秘密滿足“實質相同”要件。權利人在初步舉證后,舉證責任轉移至被訴侵權人,被訴侵權人應作合法來源抗辯,這也是本案的重點審查對象。本案中,紙上絕知公司在缺乏足夠的“投喂”數據助力人工智能模型進行強化學習訓練的情況下,若僅依靠開源代碼顯然不能在公司成立僅兩個月內就能推出案涉產品。因此,對于被訴侵權方提出的合法來源抗辯,最高人民法院認為其理由不足,難以成立。可以見得,本案通過舉證責任機制回應了AI時代新型技術成果的保護需求,有利于AI產業健康有序發展。
五、人工智能刑法規制類
隨著生成式人工智能技術在內容生產領域的廣泛應用,其被用于實施違法犯罪活動的風險亦逐漸顯現。一般而言,當AI被刻意用于生成侵權或違法內容并從中牟利時,相關行為可能突破民事與行政責任的邊界而進入刑法規制領域。
(一)案情簡介:利用AI生成侵權內容牟利構成犯罪
1. 利用AI生成色情內容牟利構成制作淫穢物品罪:全國首例AI開發者涉黃獲刑案
上海某科技公司開發AI陪伴應用AlienChat,將AI角色設定為“朋友、戀人或家人”,并通過修改底層提示詞,使系統可生成涉性、暴力等不受限制內容。平臺還設置“公開角色”“熱門榜單”“社區展示”等功能,使露骨內容由私密互動轉為可傳播的公共內容生態,并通過虛擬幣等方式實現營利,一審法院認定構成制作淫穢物品犯罪。
2. 銷售AI生成侵權作品構成侵犯著作權罪:全國首例AI侵犯著作權刑事案
2024年3月至7月,被告人羅某、姚某等人下載他人美術作品后,利用AI軟件生成相似圖片并制作拼圖銷售。為規避風險,僅對原圖作細微修改,但刻意保留核心獨創表達元素。行為人共銷售侵權拼圖3000余件,非法經營額27萬余元,最終被認定構成侵犯著作權罪。
(二)評析:“牟利”作為罪與非罪的紅線
原則上,刑法具有謙抑性,僅在必要且合理的情況下才會動用刑法進行制裁。兩案首次將生成式人工智能系統性生成違法內容的行為納入刑法進行規制,而行為人獲刑的關鍵在于牟利故意及其行為的認定。根據我國《刑法》第二百一十七條和第三百六十三條的規定,侵犯著作權罪和制造淫穢物品牟利罪均要求行為人具有牟利的主觀故意。兩案行為人在明知其行為將致使AI生成非法內容情況下仍促成其穩定生成相關非法內容并以此牟利。具體而言,在涉黃案中,開發者并非被動提供中立技術工具,而是通過編寫、修改系統提示詞等方式突破大語言模型的道德限制,創設虛擬幣等營利手段并大肆宣傳其涉黃功能。而在侵犯著作權案中,被告則是將人工智能技術作為實施侵權的工具,通過AI進行“去除水印”“刪除作者署名”“圖像清晰化”等處理的同時刻意保留原作核心獨創表達,生成侵權圖像并銷售。由此可見,“牟利”是區分罪與非罪的重要界限,當行為人主動利用人工智能技術穩定生成違法內容并以此獲取經濟利益時,其行為已進入刑法規制的范疇。
(作者單位系中國社會科學院大學互聯網法治研究中心)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.