英國《金融時報》記者Jemima Kelly(下稱“凱莉”)最近撰文稱她被約會對象用ChatGPT做心理分析的遭遇[i]:約會對象用AI對她發(fā)表的上千篇文章進行深度研究,并得出一份長達八頁的心理檔案。起初她并不介意對方這么做,后來想到其他人可能會利用它進行邪惡目的時,她感到毛骨悚然。今天就和大家聊聊,用人工智能給自己或其他人做分析時,有哪些法律上的注意點。
一、使用人工智能分析公開信息是不是合法?
如果使用人工智能分析的是公開信息的,不需要被分析人同意。我國《個人信息保護法》規(guī)定:處理個人信息應當取得個人同意,但是依照本法規(guī)定在合理的范圍內(nèi)處理個人自行公開或者其他已經(jīng)合法公開的個人信息,不需取得個人同意。
最高院網(wǎng)絡侵害人身權(quán)司法解釋也有規(guī)定:網(wǎng)絡用戶或者網(wǎng)絡服務提供者利用網(wǎng)絡公開自然人基因信息、病歷資料、健康檢查資料、犯罪記錄、家庭住址、私人活動等個人隱私和其他個人信息,造成他人損害,被侵權(quán)人請求其承擔侵權(quán)責任的,人民法院應予支持。但下列情形除外:(四)自然人自行在網(wǎng)絡上公開的信息或者其他已合法公開的個人信息;(五)以合法渠道獲取的個人信息。
二、未公開的個人信息不宜上傳至人工智能
未公開的個人信息涉及個人隱私,如果上傳到人工智能公司進行分析,可能會造成隱私泄露。雖然根據(jù)人工智能企業(yè)的隱私政策,他們理論上不會泄露用戶上傳的信息,但不排除其內(nèi)部人員會閱讀到相關(guān)個人信息,或者根據(jù)合同向第三方,比如技術(shù)合作方提供,也會加大泄露風險。同時,在技術(shù)故障的情況下,不排除人工智能會在向其他用戶提供服務的時候,輸出收集到的用戶個人信息。所以未公開的個人信息,無論是自己的還是別人的信息,都不宜上傳。
三、審慎公開人工智能分析的結(jié)果
現(xiàn)實中的一些場景,可能會需要使用人工智能對個人信息進行分析,比如本文之初介紹的網(wǎng)上約會場景,一方在約會前利用網(wǎng)上的信息,找人工智能分析一下對方的性格,也算一個正當理由。
但人工智能的技術(shù)目前不太成熟,其分析可能會不夠準確,甚至是無中生有的幻覺、也可能因為訓練素材的原因存在歧視。這些問題都可能會出現(xiàn)在分析的結(jié)果中,如果約會者以此作為決策依據(jù)的,還只是對自己和對方的進一步發(fā)展關(guān)系有影響。但如果把分析結(jié)果公開的,則可能面臨名譽侵權(quán)風險。其實哪怕不涉及名譽侵權(quán)的,貿(mào)然把對他人評價發(fā)到網(wǎng)上,也不夠?qū)徤鳌?/p>
我國《民法典》規(guī)定,民事主體享有名譽權(quán)。任何組織或者個人不得以侮辱、誹謗等方式侵害他人的名譽權(quán)。如果人工智能分析分析結(jié)果中有歧視性內(nèi)容的,就可能涉嫌侮辱,如果分析結(jié)果中存在幻覺的,比如無中生有捏造了某些事實,就可能涉嫌誹謗。
如果發(fā)表了涉嫌侮辱或誹謗的內(nèi)容被起訴的,需要行為人自己證明盡到了合理核實義務才能免責,根據(jù)《民法典》的規(guī)定,法院一般會審查內(nèi)容來源的可信度、行為人是不是對明顯可能引發(fā)爭議的內(nèi)容是否進行了必要的調(diào)查、內(nèi)容是不是有時限性、內(nèi)容與公序良俗的關(guān)聯(lián)性、受害人名譽受貶損的可能性、核實能力和核實成本等因素。如果不能證明履行了合理核實義務的,就可能涉嫌名譽侵權(quán)。
四、網(wǎng)上留個人信息要謹慎
人工智能技術(shù)日新月異,每個人被人工智能分析的機會都大大增加了,因為人工智能是獨立第三方,很多時候這種分析不一定都是讓人身心愉悅的。凱莉自己也用ChatGPT和谷歌的Gemini對自己做了分析,ChatGPT的分析還不錯:“凱莉給人的印象是求知欲強、思想獨立、有勇氣堅持自己的信念……這表明她非常自信、正直,”。“她對自己失態(tài)行為的幽默軼事表明她不自負,善于自嘲……從心理上講,人們可能會把凱莉描述成一個有良知的懷疑論者。”
但谷歌聊天機器人的分析就有點尖刻:她的“直率可能會被認為是對抗性的”,而且她很可能是一個壓力過大的完美主義者,這似乎是基于她在工作中的嚴謹和對細節(jié)的關(guān)注。另外,哪怕分析的內(nèi)容是彩虹屁,比如筆者也找人工智能根據(jù)網(wǎng)上的文章分析過自己,但這種被置于放大鏡之下的分析應該是很多人不樂意見到的。
凱莉是一個記者,筆者寫了很多法律分析文章,在網(wǎng)上大量留痕是正常的,但普通人,如果不想被他人過于了解的,最好在網(wǎng)絡上,特別是各種公開的平臺,如微博、論壇、各種社交媒體平臺盡量少發(fā)帶有個人特征的信息,比如留手機號,郵箱號,個人照片等。如果沒有戒心的在網(wǎng)上留痕了,別有用心的人就可能根據(jù)這些信息順藤摸瓜關(guān)聯(lián)到個人,再利用人工智能工具對個人進行分析,比如詐騙集團為你定制殺豬盤的詐騙方案,這種情況估計是多數(shù)人都不愿意遇到的。
本文作者:游云庭,上海大邦律師事務所高級合伙人,知識產(chǎn)權(quán)律師。本文僅代表作者觀點。
[i] https://businessandamerica.com/my-date-used-ai-to-psychologically-profile-me-is-that-ok/
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.