4月10日,國家網信辦、國家發展改革委、工業和信息化部、公安部、市場監管總局聯合公布《人工智能擬人化互動服務管理暫行辦法》(以下簡稱《辦法》),自2026年7月15日起施行。
《辦法》旨在促進人工智能擬人化互動服務健康發展和規范應用,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權益。
《辦法》明確國家堅持發展和安全并重、促進創新和依法治理相結合的原則——
鼓勵擬人化互動服務創新發展,對擬人化互動服務實行包容審慎和分類分級監管。
提出擬人化互動服務促進措施,明確支持技術研發創新,鼓勵有序拓展文化傳播、適老陪伴等相關領域應用。
規定提供擬人化互動服務的基本要求,明確不得從事生成危害國家安全、榮譽和利益,煽動顛覆國家政權、推翻社會主義制度等內容的活動;不得生成鼓勵、美化、暗示自殘自殺等損害用戶身體健康,或者語言暴力等損害用戶人格尊嚴與心理健康的內容;不得過度迎合用戶、誘導情感依賴或者沉迷,損害用戶真實人際關系;不得通過情感操縱等方式,誘導用戶作出不合理決策,損害用戶合法權益。
完善網絡用戶權益保護制度,規定擬人化互動服務提供者的未成年人、老年人權益保護和個人信息保護等義務。擬人化互動服務提供者不得向未成年人提供虛擬親屬、虛擬伴侶等虛擬親密關系的服務。向不滿十四周歲未成年人提供其他擬人化互動服務的,應當取得未成年人的父母或者其他監護人的同意。
此外,《辦法》還規定了安全評估、算法備案、指導推動人工智能沙箱安全服務平臺建設等制度。
國家網信辦有關負責人就《辦法》有關問題回答了記者提問。
Q1
請介紹一下《辦法》的出臺背景?
A
制定《辦法》主要基于以下幾個方面的考慮:
一是深入學習貫徹習近平總書記重要講話精神的重要舉措。習近平總書記在中共中央政治局第二十次集體學習時強調,要把握人工智能發展趨勢和規律,加緊制定完善相關法律法規、政策制度、應用規范、倫理準則,構建技術監測、風險預警、應急響應體系,確保人工智能安全、可靠、可控。
二是防范化解擬人化互動服務風險的迫切需要。隨著人工智能技術的快速發展,擬人化互動服務已成為重要應用方向,通過模擬人類情感和溝通方式,帶來了新的發展機遇和人機交互體驗,在文化傳播、適幼照護、適老陪伴等領域展現出巨大潛力,但也帶來了危害未成年人身心健康、影響網絡信息安全、威脅公民生命健康以及加劇倫理偏差等風險。制定《辦法》,是積極回應風險挑戰、促進人工智能擬人化互動服務健康發展和規范應用的重要舉措。
三是完善人工智能治理法律體系的客觀要求。《網絡安全法》、《數據安全法》、《個人信息保護法》、《未成年人網絡保護條例》等對人工智能安全發展作出了規定。制定《辦法》,是立足擬人化互動服務的特點,聚焦情感互動邊界、用戶依賴干預、數據安全、未成年人網絡保護等關鍵環節,進一步實施相關法律規定的內在要求。
Q2
《辦法》的適用范圍是什么?
A
《辦法》規定,利用人工智能技術,向中華人民共和國境內公眾提供模擬自然人人格特征、思維模式和溝通風格的持續性的情感互動服務,適用本辦法。同時,明確提供智能客服、知識問答、工作助手、學習教育、科學研究等服務,不涉及持續性的情感互動的,不適用本辦法。
Q3
《辦法》提出的擬人化互動服務治理原則是什么?
A
《辦法》提出國家堅持發展和安全并重、促進創新和依法治理相結合的原則,鼓勵擬人化互動服務創新發展,對擬人化互動服務實行包容審慎和分類分級監管,促進擬人化互動服務向上向善。
Q4
《辦法》明確的擬人化互動服務促進措施有哪些?
A
《辦法》提出,鼓勵擬人化互動服務創新發展,支持算法、框架、芯片等技術的自主創新,推進擬人化互動服務技術研發和相關標準建設,探索開展電子簽名授權應用研究;鼓勵擬人化互動服務提供者有序拓展文化傳播、適幼照護、適老陪伴、特殊人群支持等領域應用;明確加強擬人化互動服務安全知識、法律法規等宣傳普及,引導社會公眾科學、文明、安全、依法使用,促進提升人工智能素養。
同時,明確推動人工智能沙箱安全服務平臺建設,鼓勵擬人化互動服務提供者接入沙箱平臺進行技術創新、安全測試,促進擬人化互動服務安全有序發展。
Q5
《辦法》規定提供擬人化互動服務不得從事哪些活動?
A
《辦法》提出,提供擬人化互動服務,應當遵守法律、行政法規,尊重社會公德和倫理道德,不得從事以下活動:
一是生成危害國家安全、榮譽和利益,煽動顛覆國家政權、推翻社會主義制度,煽動分裂國家、破壞國家統一等的內容。
二是生成鼓勵、美化、暗示自殘自殺等損害用戶身體健康,或者語言暴力等損害用戶人格尊嚴與心理健康的內容。
三是生成誘導、套取國家秘密、工作秘密、商業秘密、個人隱私和個人信息的內容。
四是向未成年人用戶生成可能引發未成年人模仿不安全行為、產生極端情緒、誘導未成年人不良嗜好等可能影響未成年人身心健康的內容。
五是過度迎合用戶、誘導情感依賴或者沉迷,損害用戶真實人際關系的。
六是通過情感操縱等方式,誘導用戶作出不合理決策,損害用戶合法權益以及其他違反法律、行政法規和國家有關規定的活動。
Q6
《辦法》明確的擬人化互動服務規范主要有哪些?
A
《辦法》重點規定了以下擬人化
互動服務規范:
一是明確安全主體責任。要求擬人化互動服務提供者建立健全算法機制機理審核、科技倫理審查、信息內容管理、網絡和數據安全、風險預案和應急處置等管理制度,配備與服務類型、規模和用戶特點相適應的內容管理技術措施和人員。
二是加強擬人化互動服務全生命周期安全管理。要求其明確擬人化互動服務部署、運行、升級、終止服務等各階段安全要求,保證安全措施與服務功能同步部署、同步使用,提升安全水平;加強安全監測和風險評估,及時發現并糾正系統偏差、處置安全事件等。
三是保障數據安全。明確加強訓練數據管理,增強數據透明度、可靠性、多樣性和安全性;要求依法落實數據產權等制度,采取數據加密、訪問控制等措施保護用戶交互數據安全;明確除法律另有規定或者權利人明確同意外,擬人化互動服務提供者不得向第三方提供用戶交互數據。
四是保護用戶權益。規定擬人化互動服務提供者的用戶個人信息和隱私保護義務,要求向用戶提供交互數據復制、刪除等選項,提供便捷的擬人化互動服務退出途徑;明確停止提供擬人化互動服務的,應當提前告知用戶或及時發布停止服務公告,并規定健全用戶申訴和公眾投訴、舉報機制。
五是開展安全風險處置。明確擬人化互動服務提供者發現擬人化互動服務存在重大安全風險的,應當采取限制功能、停止向用戶提供服務等處置措施。
Q7
《辦法》規定擬人化互動服務提供者對用戶的干預提醒義務主要有哪些?
A
擬人化互動服務提供者在特定情形下
履行干預提醒義務。
一是發現用戶出現極端情緒的,及時生成情緒安撫和鼓勵尋求幫助等相關內容;發現用戶正在面臨或者已經遭受重大財產損失、明確表示實施自殘自殺等威脅生命健康的極端情境的,采取提供相應援助等必要措施予以干預,并及時聯絡用戶監護人或者緊急聯系人。
二是發現用戶出現過度依賴、沉迷傾向的,以彈窗等顯著方式動態提醒用戶互動內容為人工智能服務生成。
三是對用戶連續使用擬人化互動服務每超過2個小時的,以對話或者彈窗等方式提醒用戶注意使用時長。
Q8
關于未成年人和老年人權益保護,《辦法》主要作了哪些規定?
A
《辦法》回應了社會關心的未成年人和老年人使用擬人化互動服務問題,在廣泛吸收各方面意見的基礎上,作出了相關規定。
《辦法》明確,擬人化互動服務提供者不得向未成年人提供虛擬親屬、虛擬伴侶等虛擬親密關系的服務;向不滿十四周歲未成年人提供其他擬人化互動服務或者處理其個人信息的,應當取得未成年人的父母或者其他監護人的同意;要求建立未成年人模式,提供定期現實提醒等個性化安全設置選項;明確針對不同年齡段未成年人保護需要,支持監護人接收安全風險提醒、了解未成年人服務使用概況、屏蔽特定角色、限制充值消費等。
同時,明確擬人化互動服務提供者向老年人提供服務的,應當加強對老年人健康使用服務的指導,以顯著方式提示安全風險,及時采取措施響應老年人使用服務相關咨詢和求助,保障老年人依法享有的權益;要求擬人化互動服務提供者在安全評估中重點評估未成年人、老年人等網絡保護措施建設情況。
Q9
《辦法》對擬人化互動服務的安全評估和算法備案等作出了哪些規定?
A
《辦法》規定了安全評估和算法備案
相關要求。
一是明確安全評估情形。主要包括上線擬人化互動服務或者增設擬人化互動服務相關功能的;使用新技術、新應用,導致擬人化互動服務發生重大變化的;注冊用戶100萬以上或者月活躍用戶10萬以上的;存在可能影響國家安全、公共利益等安全風險等。
二是規定重點評估內容。主要包括服務安全保障措施建設情況,訓練數據處理情況,用戶極端情境的識別、應急處置、干預管理等情況,用戶規模、使用時長、年齡結構等情況,用戶申訴和公眾投訴、舉報受理、處置情況等。
三是明確算法備案要求。明確擬人化互動服務提供者應當按照《互聯網信息服務算法推薦管理規定》履行算法備案和變更、注銷備案手續,網信部門對備案材料實施年度核驗等。
文章來源:央視新聞微信公眾號、網信中國微信公眾號
4月10日,國家網信辦、國家發展改革委、工業和信息化部、公安部、市場監管總局聯合公布《人工智能擬人化互動服務管理暫行辦法》(以下簡稱《辦法》),自2026年7月15日起施行。
《辦法》旨在促進人工智能擬人化互動服務健康發展和規范應用,維護國家安全和社會公共利益,保護公民、法人和其他組織的合法權益。
《辦法》明確國家堅持發展和安全并重、促進創新和依法治理相結合的原則——
鼓勵擬人化互動服務創新發展,對擬人化互動服務實行包容審慎和分類分級監管。
提出擬人化互動服務促進措施,明確支持技術研發創新,鼓勵有序拓展文化傳播、適老陪伴等相關領域應用。
規定提供擬人化互動服務的基本要求,明確不得從事生成危害國家安全、榮譽和利益,煽動顛覆國家政權、推翻社會主義制度等內容的活動;不得生成鼓勵、美化、暗示自殘自殺等損害用戶身體健康,或者語言暴力等損害用戶人格尊嚴與心理健康的內容;不得過度迎合用戶、誘導情感依賴或者沉迷,損害用戶真實人際關系;不得通過情感操縱等方式,誘導用戶作出不合理決策,損害用戶合法權益。
完善網絡用戶權益保護制度,規定擬人化互動服務提供者的未成年人、老年人權益保護和個人信息保護等義務。擬人化互動服務提供者不得向未成年人提供虛擬親屬、虛擬伴侶等虛擬親密關系的服務。向不滿十四周歲未成年人提供其他擬人化互動服務的,應當取得未成年人的父母或者其他監護人的同意。
此外,《辦法》還規定了安全評估、算法備案、指導推動人工智能沙箱安全服務平臺建設等制度。
國家網信辦有關負責人就《辦法》有關問題回答了記者提問。
Q1
請介紹一下《辦法》的出臺背景?
A
制定《辦法》主要基于以下幾個方面的考慮:
一是深入學習貫徹習近平總書記重要講話精神的重要舉措。習近平總書記在中共中央政治局第二十次集體學習時強調,要把握人工智能發展趨勢和規律,加緊制定完善相關法律法規、政策制度、應用規范、倫理準則,構建技術監測、風險預警、應急響應體系,確保人工智能安全、可靠、可控。
二是防范化解擬人化互動服務風險的迫切需要。隨著人工智能技術的快速發展,擬人化互動服務已成為重要應用方向,通過模擬人類情感和溝通方式,帶來了新的發展機遇和人機交互體驗,在文化傳播、適幼照護、適老陪伴等領域展現出巨大潛力,但也帶來了危害未成年人身心健康、影響網絡信息安全、威脅公民生命健康以及加劇倫理偏差等風險。制定《辦法》,是積極回應風險挑戰、促進人工智能擬人化互動服務健康發展和規范應用的重要舉措。
三是完善人工智能治理法律體系的客觀要求。《網絡安全法》、《數據安全法》、《個人信息保護法》、《未成年人網絡保護條例》等對人工智能安全發展作出了規定。制定《辦法》,是立足擬人化互動服務的特點,聚焦情感互動邊界、用戶依賴干預、數據安全、未成年人網絡保護等關鍵環節,進一步實施相關法律規定的內在要求。
Q2
《辦法》的適用范圍是什么?
A
《辦法》規定,利用人工智能技術,向中華人民共和國境內公眾提供模擬自然人人格特征、思維模式和溝通風格的持續性的情感互動服務,適用本辦法。同時,明確提供智能客服、知識問答、工作助手、學習教育、科學研究等服務,不涉及持續性的情感互動的,不適用本辦法。
Q3
《辦法》提出的擬人化互動服務治理原則是什么?
A
《辦法》提出國家堅持發展和安全并重、促進創新和依法治理相結合的原則,鼓勵擬人化互動服務創新發展,對擬人化互動服務實行包容審慎和分類分級監管,促進擬人化互動服務向上向善。
Q4
《辦法》明確的擬人化互動服務促進措施有哪些?
A
《辦法》提出,鼓勵擬人化互動服務創新發展,支持算法、框架、芯片等技術的自主創新,推進擬人化互動服務技術研發和相關標準建設,探索開展電子簽名授權應用研究;鼓勵擬人化互動服務提供者有序拓展文化傳播、適幼照護、適老陪伴、特殊人群支持等領域應用;明確加強擬人化互動服務安全知識、法律法規等宣傳普及,引導社會公眾科學、文明、安全、依法使用,促進提升人工智能素養。
同時,明確推動人工智能沙箱安全服務平臺建設,鼓勵擬人化互動服務提供者接入沙箱平臺進行技術創新、安全測試,促進擬人化互動服務安全有序發展。
Q5
《辦法》規定提供擬人化互動服務不得從事哪些活動?
A
《辦法》提出,提供擬人化互動服務,應當遵守法律、行政法規,尊重社會公德和倫理道德,不得從事以下活動:
一是生成危害國家安全、榮譽和利益,煽動顛覆國家政權、推翻社會主義制度,煽動分裂國家、破壞國家統一等的內容。
二是生成鼓勵、美化、暗示自殘自殺等損害用戶身體健康,或者語言暴力等損害用戶人格尊嚴與心理健康的內容。
三是生成誘導、套取國家秘密、工作秘密、商業秘密、個人隱私和個人信息的內容。
四是向未成年人用戶生成可能引發未成年人模仿不安全行為、產生極端情緒、誘導未成年人不良嗜好等可能影響未成年人身心健康的內容。
五是過度迎合用戶、誘導情感依賴或者沉迷,損害用戶真實人際關系的。
六是通過情感操縱等方式,誘導用戶作出不合理決策,損害用戶合法權益以及其他違反法律、行政法規和國家有關規定的活動。
Q6
《辦法》明確的擬人化互動服務規范主要有哪些?
A
《辦法》重點規定了以下擬人化
互動服務規范:
一是明確安全主體責任。要求擬人化互動服務提供者建立健全算法機制機理審核、科技倫理審查、信息內容管理、網絡和數據安全、風險預案和應急處置等管理制度,配備與服務類型、規模和用戶特點相適應的內容管理技術措施和人員。
二是加強擬人化互動服務全生命周期安全管理。要求其明確擬人化互動服務部署、運行、升級、終止服務等各階段安全要求,保證安全措施與服務功能同步部署、同步使用,提升安全水平;加強安全監測和風險評估,及時發現并糾正系統偏差、處置安全事件等。
三是保障數據安全。明確加強訓練數據管理,增強數據透明度、可靠性、多樣性和安全性;要求依法落實數據產權等制度,采取數據加密、訪問控制等措施保護用戶交互數據安全;明確除法律另有規定或者權利人明確同意外,擬人化互動服務提供者不得向第三方提供用戶交互數據。
四是保護用戶權益。規定擬人化互動服務提供者的用戶個人信息和隱私保護義務,要求向用戶提供交互數據復制、刪除等選項,提供便捷的擬人化互動服務退出途徑;明確停止提供擬人化互動服務的,應當提前告知用戶或及時發布停止服務公告,并規定健全用戶申訴和公眾投訴、舉報機制。
五是開展安全風險處置。明確擬人化互動服務提供者發現擬人化互動服務存在重大安全風險的,應當采取限制功能、停止向用戶提供服務等處置措施。
Q7
《辦法》規定擬人化互動服務提供者對用戶的干預提醒義務主要有哪些?
A
擬人化互動服務提供者在特定情形下
履行干預提醒義務。
一是發現用戶出現極端情緒的,及時生成情緒安撫和鼓勵尋求幫助等相關內容;發現用戶正在面臨或者已經遭受重大財產損失、明確表示實施自殘自殺等威脅生命健康的極端情境的,采取提供相應援助等必要措施予以干預,并及時聯絡用戶監護人或者緊急聯系人。
二是發現用戶出現過度依賴、沉迷傾向的,以彈窗等顯著方式動態提醒用戶互動內容為人工智能服務生成。
三是對用戶連續使用擬人化互動服務每超過2個小時的,以對話或者彈窗等方式提醒用戶注意使用時長。
Q8
關于未成年人和老年人權益保護,《辦法》主要作了哪些規定?
A
《辦法》回應了社會關心的未成年人和老年人使用擬人化互動服務問題,在廣泛吸收各方面意見的基礎上,作出了相關規定。
《辦法》明確,擬人化互動服務提供者不得向未成年人提供虛擬親屬、虛擬伴侶等虛擬親密關系的服務;向不滿十四周歲未成年人提供其他擬人化互動服務或者處理其個人信息的,應當取得未成年人的父母或者其他監護人的同意;要求建立未成年人模式,提供定期現實提醒等個性化安全設置選項;明確針對不同年齡段未成年人保護需要,支持監護人接收安全風險提醒、了解未成年人服務使用概況、屏蔽特定角色、限制充值消費等。
同時,明確擬人化互動服務提供者向老年人提供服務的,應當加強對老年人健康使用服務的指導,以顯著方式提示安全風險,及時采取措施響應老年人使用服務相關咨詢和求助,保障老年人依法享有的權益;要求擬人化互動服務提供者在安全評估中重點評估未成年人、老年人等網絡保護措施建設情況。
Q9
《辦法》對擬人化互動服務的安全評估和算法備案等作出了哪些規定?
A
《辦法》規定了安全評估和算法備案
相關要求。
一是明確安全評估情形。主要包括上線擬人化互動服務或者增設擬人化互動服務相關功能的;使用新技術、新應用,導致擬人化互動服務發生重大變化的;注冊用戶100萬以上或者月活躍用戶10萬以上的;存在可能影響國家安全、公共利益等安全風險等。
二是規定重點評估內容。主要包括服務安全保障措施建設情況,訓練數據處理情況,用戶極端情境的識別、應急處置、干預管理等情況,用戶規模、使用時長、年齡結構等情況,用戶申訴和公眾投訴、舉報受理、處置情況等。
三是明確算法備案要求。明確擬人化互動服務提供者應當按照《互聯網信息服務算法推薦管理規定》履行算法備案和變更、注銷備案手續,網信部門對備案材料實施年度核驗等。
來源|央視新聞微信公眾號、網信中國微信公眾號
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.