優(yōu)化知情同意規(guī)則促進生成式人工智能向善發(fā)展
【析理論道】
第55次《中國互聯(lián)網(wǎng)絡(luò)發(fā)展狀況統(tǒng)計報告》顯示,截至2024年12月,中國生成式人工智能產(chǎn)品用戶規(guī)模達2.49億人。生成式人工智能通過數(shù)據(jù)分析、技術(shù)處理、邏輯推演,能夠具備人類的思考、推理、分析和交互等能力,在很多行業(yè)領(lǐng)域應(yīng)用廣泛。隨著數(shù)字經(jīng)濟的發(fā)展,以及人們對隱私權(quán)、人格權(quán)保護的日益重視,如何實現(xiàn)法律規(guī)制與技術(shù)創(chuàng)新相協(xié)調(diào),進一步防范生成式人工智能的風險,促使生成式人工智能領(lǐng)域治理的法治化、規(guī)范化、科學(xué)化,成為一項重要課題。在此背景下,優(yōu)化立法中的知情同意規(guī)則尤為關(guān)鍵。
從發(fā)展淵源看,知情同意規(guī)則源起于醫(yī)療領(lǐng)域,最初是指患者在對健康狀況、治療方案、醫(yī)療風險充分了解的基礎(chǔ)上,進行自我決定和決策,體現(xiàn)的是對患者人格尊嚴的尊重和健康利益的保護。在信息領(lǐng)域,知情同意規(guī)則發(fā)揮著重要作用,強調(diào)在獲得信息主體的同意和確認后,個人信息的使用、處理行為方具有正當性基礎(chǔ),注重對信息主體的人格尊嚴及信息自決的尊重、保護。大數(shù)據(jù)時代,知情同意規(guī)則對信息自決權(quán)和隱私保護的重要性毋庸置疑。
實踐中,在個人信息的獲取、使用、流轉(zhuǎn)等環(huán)節(jié),信息主體的知情同意授權(quán)已成為常規(guī)操作,但受一些因素影響,知情同意的“強同意”在諸多領(lǐng)域逐步衍變?yōu)椤叭跬狻?,?quán)利保護和信息利用的平衡治理亟待關(guān)注。一是同意的形式化。知情同意協(xié)議長篇累牘,專業(yè)術(shù)語生澀、難以理解,信息主體出于迫切性和時間考量,不得不選擇全部同意。二是捆綁性選擇。即不同意就無法繼續(xù)使用相關(guān)服務(wù),信息主體需在授權(quán)與退出之間二選一。三是后續(xù)監(jiān)管難。信息主體一鍵授權(quán),同意即為永久有效,后續(xù)信息的使用者和使用環(huán)節(jié)不確定或不可控,面臨擴展性使用和泄露的風險,監(jiān)管治理難度較大。
數(shù)據(jù)資源是生成式人工智能訓(xùn)練的來源和養(yǎng)料,而知情同意規(guī)則是生成式人工智能確保數(shù)據(jù)溯源可信、使用合規(guī)的重要基石。國家發(fā)展改革委等六部門2025年1月6日印發(fā)的《關(guān)于完善數(shù)據(jù)流通安全治理 更好促進數(shù)據(jù)要素市場化價值化的實施方案》,從事前安全治理、事中安全支撐、事后安全保障等方面對數(shù)據(jù)流通進行了全方位規(guī)劃,強調(diào)個人數(shù)據(jù)流通中取得個人同意的合法性。生成式人工智能應(yīng)具備法律規(guī)則的規(guī)范性、技術(shù)應(yīng)用的安全性,可以通過優(yōu)化知情同意規(guī)則,形成發(fā)展向善、安全可信、治理可靠、救濟有效、規(guī)范完備的法律體系,以促進其向善發(fā)展。
一是樹立合理限度、最小必要的治理理念。我國發(fā)布的《全球人工智能治理倡議》提出了“以人為本、智能向善”的人工智能發(fā)展方向。最小必要是生成式人工智能收集個人信息、獲得授權(quán)同意所需要遵循的基本理念,在立法和司法過程中需要秉承這一理念,加強對立法完善及司法實踐的引導(dǎo)。生成式人工智能涉及全方位、深層次挖掘個人信息的處理過程,在利用數(shù)據(jù)信息的各環(huán)節(jié)中,對數(shù)據(jù)信息的收集、處理應(yīng)秉持合理、必要的限度,避免過分收集、提取私密的個人信息,通過加強算法規(guī)則的技術(shù)審查、預(yù)先評估風險、嚴格執(zhí)行備案機制等方式,盡可能降低信息泄露的風險,在數(shù)字經(jīng)濟發(fā)展與個人信息保護之間尋求有效的平衡點。
二是落實分級分類的治理模式,差異化配置不同的同意模式。一方面,區(qū)分不同信息的保護邊界和保護方式。例如,對個人普通信息,獲得信息主體默示同意;個人敏感信息,需要獲得信息主體明示同意;人臉信息、金融信息等識別特征、私密特征強的信息,需要獲得信息主體明確的書面同意。另一方面,告知方式不僅應(yīng)當簡潔、明晰、容易理解,而且如后續(xù)用于生成式人工智能的數(shù)據(jù)訓(xùn)練、人機交互等用途還應(yīng)明示告知,對于可能改變數(shù)據(jù)處理范圍或向其他機構(gòu)提供的情形,則需動態(tài)獲得信息主體的同意,進行二次授權(quán)確認,保證處理過程的透明度。此外,信息主體需要掌握信息控制的靈活性與主動權(quán),如享有刪除、更正、撤回同意的退出性權(quán)利,使得生成式人工智能利用信息的風險更加可控。
三是促進數(shù)據(jù)信息的合規(guī)流通,實現(xiàn)知情同意等全流程的可追溯式監(jiān)管。運用區(qū)塊鏈等技術(shù)手段對信息利用、流轉(zhuǎn)的環(huán)節(jié)進行監(jiān)管,使得每個環(huán)節(jié)能夠?qū)崿F(xiàn)可追溯管理,建立動態(tài)的治理體系,堅守數(shù)據(jù)安全底線。利用自動化檢測程序、工具加強對數(shù)據(jù)流通的實時監(jiān)管,保證每一階段的處理合規(guī)、透明,并建立識別和預(yù)警機制,實現(xiàn)流程化操作的留痕,確保過程可追溯、責任可界定。破除監(jiān)管壁壘,各部門形成常態(tài)化的監(jiān)管合力,實現(xiàn)監(jiān)管部門的聯(lián)動性、一致性、協(xié)調(diào)性,打造多元共治的格局。構(gòu)建治理閉環(huán),通過行政監(jiān)管、企業(yè)自治、社會參與、第三方監(jiān)督等多方協(xié)同,形成監(jiān)管機構(gòu)主導(dǎo)、企業(yè)強化自律、公眾積極參與、外部獨立監(jiān)督的有效治理機制。
四是適用舉證責任的倒置,細化司法程序,推進生成式人工智能權(quán)益救濟的法律路徑更加有效。由于生成式人工智能運行過程主要涉及電子證據(jù),其具有易變性、多樣性、技術(shù)依賴性等特點,適用“誰主張誰舉證”的一般證據(jù)規(guī)則可能會引發(fā)取證難等問題。信息處理者是具有地位優(yōu)勢和技術(shù)優(yōu)勢的一方,負責信息的收集、存儲、使用、加工等環(huán)節(jié),舉證能力強,在司法程序中應(yīng)當舉證倒置,加大其舉證責任,從而降低信息主體的維權(quán)難度和成本,以彌補技術(shù)優(yōu)勢等因素在信息主體和信息處理者之間造成的差距和不足。
五是推進統(tǒng)合式立法,助力生成式人工智能法律體系更加完備。當前,網(wǎng)絡(luò)安全法、數(shù)據(jù)安全法、個人信息保護法以及《生成式人工智能服務(wù)管理暫行辦法》等法律法規(guī),為加強對人工智能的監(jiān)管提供了制度支撐,體現(xiàn)了多維度、多層次性的特點,明確了人工智能發(fā)展的規(guī)則和秩序,但法律法規(guī)之間存在一定交叉,需要結(jié)合生成式人工智能復(fù)雜、多樣的發(fā)展趨勢進行整合,形成系統(tǒng)、規(guī)范的人工智能法律體系。生成式人工智能的良好發(fā)展既要技術(shù)賦能,又要受到法律規(guī)則的約束,進而筑牢數(shù)字信任體系基礎(chǔ),助推數(shù)字經(jīng)濟發(fā)展。
(作者:葉欣,系武漢大學(xué)國際教育學(xué)院副教授)