![]()
作者簡介:翁明杰,中國政法大學(xué)法學(xué)院博士研究生。文章來源:《財經(jīng)法學(xué)》2025年第1期,轉(zhuǎn)自財經(jīng)法學(xué)公號。注釋及參考文獻(xiàn)已略,引用請以原文為準(zhǔn)。
摘要
隨著數(shù)字技術(shù)的迭代更新,自動化決策的應(yīng)用范圍不斷擴大、應(yīng)用程度不斷加深,給現(xiàn)代行政法治帶來新的挑戰(zhàn)。《個人信息保護(hù)法》第24條第3款規(guī)定的“自動化決策拒絕權(quán)”雖然構(gòu)造相對粗糙,條文設(shè)計彈性不足,但是該規(guī)定似乎給智能行政情境下研究如何保障行政相對人合法權(quán)益提供了新方向。在智能行政中嵌入自動化決策拒絕權(quán)不僅是權(quán)力與權(quán)利不對等的必要化解路徑、智能行政要求嵌入更高強度人工干預(yù)的必然舉措,還與自動化決策“人在回路”的治理路徑相契合。禁令路徑或權(quán)利路徑因不同程度上的局限被排除在自動化決策拒絕權(quán)的進(jìn)路選擇范圍之外。折中進(jìn)路以其宏觀性、弱對抗性和動態(tài)性的優(yōu)點,彌補其他兩種路徑的局限,成為自動化決策拒絕權(quán)的進(jìn)路選擇。在折中進(jìn)路指引下,自動化決策拒絕權(quán)中的適用場域應(yīng)當(dāng)拓寬、“對個人利益有重大影響”的適用前提需要劃定、自動化決策拒絕權(quán)的適用銜接應(yīng)當(dāng)優(yōu)化。
一、引言
隨著大數(shù)據(jù)、人工智能、算法等數(shù)字技術(shù)的迭代更新,行政機關(guān)開始將數(shù)字技術(shù)深度應(yīng)用于行政處罰、行政決策、行政許可、行政登記等行政治理領(lǐng)域,給傳統(tǒng)行政活動方式帶來了深刻變革。行政機關(guān)對數(shù)字技術(shù)的依賴程度不斷加深,行政機關(guān)已然邁入智能行政時代。在智能行政時代,行政機關(guān)應(yīng)用數(shù)字技術(shù)在提升行政效率的同時也給依法行政原則、正當(dāng)程序原則、行政公開原則和行政公平原則等現(xiàn)代行政法治帶來嚴(yán)重挑戰(zhàn)。為此,學(xué)界紛紛為應(yīng)對算法、人工智能等數(shù)字技術(shù)給行政治理帶來的挑戰(zhàn)提出相應(yīng)舉措。
自20世紀(jì)50年代起,算法自動化決策即開始應(yīng)用于政府的公共行政。《中華人民共和國個人信息保護(hù)法》(以下簡稱《個人信息保護(hù)法》)第73條第2項對自動化決策作出界定:“自動化決策,是指通過計算機程序自動分析、評估個人的行為習(xí)慣、興趣愛好或者經(jīng)濟、健康、信用狀況等,并進(jìn)行決策的活動。”為避免智能行政中算法決策權(quán)的異化,學(xué)界從正當(dāng)程序展開釋義,要求行政機關(guān)建立起與行政相對人的“對話”機制,將“說明理由機制”“算法解釋權(quán)”等機制嵌入算法治理中,恪守正當(dāng)程序原則的底線。《個人信息保護(hù)法》作為一部公私法交融、超越單一部門法的個人信息保護(hù)法,其中的規(guī)定自然也成為行政機關(guān)處理個人信息時應(yīng)遵循的“信條”。《個人信息保護(hù)法》第24條第3款規(guī)定:“通過自動化決策方式作出對個人權(quán)益有重大影響的決定,個人有權(quán)要求個人信息處理者予以說明,并有權(quán)拒絕個人信息處理者僅通過自動化決策的方式作出決定。”該條款賦予個人對行政機關(guān)通過自動決策處理個人信息說“不”的權(quán)利,在立法上確立起“自動化決策拒絕權(quán)”。盡管該條文規(guī)定個人可以拒絕信息處理者自動化處理個人信息,但是個人何時提出、如何提出、提出后信息處理者是必然引入人工審核還是繼續(xù)“自動化”路徑、個人如何救濟這些問題似乎都未在該條文中得到解釋。
隨著智能行政的作用場域不斷擴大,自動化決策拒絕權(quán)的適用場域能否不再局限于自動化行政決策的信息處理中,而進(jìn)一步擴大到自動化行政決策的各個領(lǐng)域?《個人信息保護(hù)法》的條文能否為行政相對人對智能行政享有“自動化決策拒絕權(quán)”的論證提供新方向?這些問題都需要進(jìn)一步探討。為此,本文將從《個人信息保護(hù)法》第24條第3款出發(fā),分析“自動化決策拒絕權(quán)”的立法構(gòu)造,確認(rèn)自動化決策拒絕權(quán)到底是行政相對人的“權(quán)利”還是行政機關(guān)處理個人信息的“禁令”,研究“自動化決策拒絕權(quán)”的適用范圍能否擴大到行政決策的各個領(lǐng)域,進(jìn)而分析“自動化決策拒絕權(quán)”的適用規(guī)則。
二、自動化決策拒絕權(quán)的規(guī)范梳理與適用困境
從現(xiàn)有法律規(guī)范來看,我國僅有《個人信息保護(hù)法》對自動化決策拒絕權(quán)作出規(guī)定。應(yīng)當(dāng)說,《個人信息保護(hù)法》的自動化決策拒絕權(quán)條款很大程度上借鑒了歐盟《通用數(shù)據(jù)保護(hù)條例》(GeneralDataProtectionRegulation,以下簡稱GDPR)第22條第1款的規(guī)定。因此,對個人信息保護(hù)法》中的自動化決策拒絕權(quán)的規(guī)范展開,除了需要依據(jù)現(xiàn)有法律規(guī)定、對比《中華人民共和國個人信息保護(hù)法(草案)》[以下簡稱《個人信息保護(hù)法(草案)》],還可以參考GDPR的相關(guān)規(guī)定。
(一)《個人信息保護(hù)法》中自動化決策拒絕權(quán)的規(guī)范展開
1.個人信息保護(hù)中的自動化決策拒絕權(quán)
《中華人民共和國個人信息保護(hù)法釋義》指出,《個人信息保護(hù)法》第24條第3款有著兩層含義:一是賦予個人對重大自動化決策的要求解釋權(quán),這是個人行使選擇權(quán)和決定權(quán)的基礎(chǔ);二是賦予個人要求對自動化決策進(jìn)行人工干預(yù)的權(quán)利。從自動化決策拒絕權(quán)的角度來看,該條款從適用前提、適用范圍、適用階段對個人行使自動化決策拒絕權(quán)作出規(guī)定。(參見表1)
表1《個人信息保護(hù)法》第24條第3款中的自動化決策拒絕權(quán)
![]()
首先,個人只有在信息處理者通過自動決策方式對個人權(quán)益有重大影響前提下才可以行使該權(quán)利。換言之,個人對信息處理者能否行使自動化決策權(quán)的判斷標(biāo)準(zhǔn)是“重大影響”。至于如何界定“重大影響”,應(yīng)當(dāng)具體到個人信息處理的具體場景和個人的具體特征。從理論上來看,“重大影響”的判斷需要達(dá)到“可能侵害個人信息權(quán)益”的程度,”重大影響”的適用需要與一般意義上的拒絕權(quán)作區(qū)分。
其次,自動化決策拒絕權(quán)的適用范圍是“僅通過自動化決策的方式”。數(shù)字技術(shù)并非以絕對穩(wěn)定的狀態(tài)嵌入個人信息活動中,它會根據(jù)數(shù)字技術(shù)的發(fā)展,不斷轉(zhuǎn)換適用深度與場景。有學(xué)者根據(jù)人與自動化系統(tǒng)的關(guān)系,將自動化分為完全自動化系統(tǒng)(fullyautomatedsystems)和混合自動化系統(tǒng)(mixedsystems)。結(jié)合《個人信息保護(hù)法》第73條第2項對“自動化決策”的規(guī)定,當(dāng)信息處理者通過“混合自動化決策”方式作出決定時,個人不得行使自動化決策拒絕權(quán)。
最后,自動化決策拒絕權(quán)的適用階段是“作出決定”而非“作出的決定”。在個人信息處理活動中,信息處理者對個人信息的處理包括處理過程和處理結(jié)果。作出決定屬于單方行為,只要對個人采取具有一定程度約束力的態(tài)度/立場,或者可能根據(jù)這一態(tài)度/立場采取針對個人的活動,就可以將這一行為視為作出決定。《個人信息保護(hù)法》規(guī)定,個人認(rèn)為信息處理者自動化決策可能對個人權(quán)益有重大影響,就可以說“不”,不需要考慮/判斷該決定是否已經(jīng)作出。此時,“決定是否已經(jīng)作出無關(guān)緊要”。
2.《個人信息保護(hù)法》中自動化決策拒絕權(quán)的規(guī)范不足
應(yīng)當(dāng)說,自動化決策拒絕權(quán)是我國首次從法律層面對自動化決策作出的回應(yīng),進(jìn)一步加強了對個人信息的法律保障。但也有學(xué)者主張,《個人信息保護(hù)法》第24條第3款的構(gòu)造過于粗糙,條文設(shè)計彈性不足,需要進(jìn)一步補強。
首先,《個人信息保護(hù)法》未對適用前提中“重大影響”的判斷標(biāo)準(zhǔn)作出規(guī)定。相較于《個人信息保護(hù)法(草案)》一審稿中的“個人認(rèn)為自動化決策對其權(quán)益造成重大影響的”適用前提,《個人信息保護(hù)法》做了“去主觀化”的處理,即刪除“個人認(rèn)為”的表述,保證法律規(guī)范對客觀法秩序的維護(hù)。但是《個人信息保護(hù)法》對自動化決策拒絕權(quán)的判斷標(biāo)準(zhǔn)仍然是一種較為模糊的立法表達(dá)。“上述判斷標(biāo)準(zhǔn)有待司法機關(guān)與實踐經(jīng)驗的進(jìn)一步總結(jié)。”“重大影響”的界定過寬,可能會妨礙自動化決策技術(shù)的良性發(fā)展;“重大影響”的界定過窄,可能會侵害個人的相關(guān)合法權(quán)益。為此,亟須立法機關(guān)/司法機關(guān)對“重大影響”的判斷標(biāo)準(zhǔn)作進(jìn)一步釋明。
其次,自動化決策拒絕權(quán)是否存在例外情形,仍需進(jìn)一步研究。歐盟GDPR規(guī)定了自動化決策拒絕權(quán)行使的例外情形,譬如數(shù)據(jù)主體明確同意、自動化決策是數(shù)據(jù)主體與數(shù)據(jù)控制者訂立等等。個人信息保護(hù)的實踐紛繁復(fù)雜,是否存在例外情形仍需進(jìn)一步探明,必要時可借鑒GDPR的有關(guān)規(guī)定。
(二)智能行政中自動化決策拒絕權(quán)的適用困境
隨著算法、人工智能、大數(shù)據(jù)等數(shù)字技術(shù)不斷革新,行政審批、治安監(jiān)控、交通執(zhí)法、信用評估、風(fēng)險預(yù)防等領(lǐng)域均受到數(shù)字技術(shù)的不斷滲入。數(shù)字技術(shù)借助其深度學(xué)習(xí)、大數(shù)據(jù)計算等優(yōu)勢對現(xiàn)有的社會治理模式進(jìn)行變革。《法治政府建設(shè)實施綱要(2021—2025)》(以下簡稱《綱要》)指出,要“堅持運用互聯(lián)網(wǎng)、大數(shù)據(jù)、人工智能等技術(shù)手段促進(jìn)依法行政,著力實現(xiàn)政府治理信息化與法治化深度融合,優(yōu)化革新政府治理流程和方式,大力提升法治政府建設(shè)數(shù)字化水平”,從而“全面建設(shè)數(shù)字法治政府”。全面建設(shè)數(shù)字法治政府,不僅要求國家事務(wù)和社會事務(wù)需要進(jìn)行大數(shù)據(jù)歸集和全流程在線通辦,也要求算法技術(shù)嵌入行政的深度與廣度不斷加深。行政機關(guān)越來越依賴將算法、人工智能等數(shù)字技術(shù)應(yīng)用于行政活動中,以此作出行政決策。自動化行政決策的縱深發(fā)展,在給治理、服務(wù)、決策模式帶來根本性改變的同時,也因“算法黑箱”“自動化裁量”等固有問題給行政相對人合法權(quán)益造成侵害。《個人信息保護(hù)法》第24條第3款“自動化決策拒絕權(quán)”的規(guī)定似乎給智能行政情境下研究如何保障行政相對人合法權(quán)益提供了新方向。但是,自動化決策拒絕權(quán)能否應(yīng)用于整個自動化行政決策場景中、自動化決策拒絕權(quán)的性質(zhì)如何界定等問題亟待進(jìn)一步厘清。
1. 自動化決策拒絕權(quán)進(jìn)路選擇不清
GDPR第22條規(guī)定的自動化決策拒絕權(quán)一直存在“禁令路徑”與“權(quán)利路徑”的爭論,給立法實踐帶來復(fù)雜的影響。盡管有學(xué)者認(rèn)為《個人信息保護(hù)法》第24條第3款不同于GDPR模棱兩可的規(guī)定,直接表達(dá)為一項權(quán)利,但是這種進(jìn)路忽視了“以賦權(quán)與救濟為核心的傳統(tǒng)法律制度體系在面對智能社會時出現(xiàn)的功能危機”。隨著數(shù)字技術(shù)的迭代更新,行政相對人可能無法獲知行政機關(guān)所作出的行政決策是否為“自動化決策”。畢竟,在這種情況下,算法技術(shù)完全可以不經(jīng)由個人知悉的情況下直接作出行政決策。如果對自動化決策拒絕權(quán)性質(zhì)界定采用權(quán)利進(jìn)路,行政相對人還可能面臨有權(quán)卻不知“何時、是否應(yīng)該”的權(quán)利行使困境。
如果采用禁令路徑,行政機關(guān)就不能借助算法技術(shù)實施完全自動化決策。2009年德國《聯(lián)邦數(shù)據(jù)法》第6a節(jié)就是禁令路徑的直接呈現(xiàn)。禁令路徑的選擇保護(hù)了人免受算法的滋擾與操控,表達(dá)了立法者對創(chuàng)新技術(shù)發(fā)展的保守態(tài)度,但是可能阻礙算法技術(shù)的良性發(fā)展與合理應(yīng)用,還可能導(dǎo)致舉證責(zé)任的轉(zhuǎn)變———個人需要就自動化決策對其個人權(quán)益造成重大影響承擔(dān)舉證責(zé)任。從現(xiàn)有研究來看,在將自動化決策拒絕權(quán)應(yīng)用于智能行政前,我們需要先對自動化決策拒絕權(quán)研究進(jìn)路作出抉擇。
2. 自動化決策拒絕權(quán)適用場域不明
首先,自動化決策拒絕權(quán)全場域適用缺乏法律規(guī)范依據(jù),有待進(jìn)一步證成。行政決策是行政機關(guān)的一項行政活動,是行政機關(guān)及其公務(wù)員為了實現(xiàn)行政目標(biāo),依據(jù)既定政策和法律,就要解決的問題擬定并選擇活動方案的行為過程。行政決策包括行政機關(guān)依據(jù)法律、政策作出的各類行政活動。《個人信息保護(hù)法》規(guī)定了自動化決策拒絕權(quán),但是該條款僅適用于個人信息保護(hù)領(lǐng)域。行政相對人在行政機關(guān)的智能行政中能否行使該權(quán)利仍未得到理論上的證成。換言之,行政機關(guān)在行政審批、治安監(jiān)控、交通執(zhí)法、信用評估、風(fēng)險預(yù)防等領(lǐng)域借助數(shù)字技術(shù)對行政相對人作出行政處罰、行政許可、行政獎勵等行政行為時,行政相對人能否以行政機關(guān)自動化決策為由,拒絕行政機關(guān)基于算法等數(shù)字技術(shù)作出行政決策需要進(jìn)一步論證。
其次,自動化決策拒絕權(quán)適用的決策類型能否進(jìn)一步擴充需要充分澄清。當(dāng)前學(xué)界對智能行政的類型劃分除了前文提及的“二分法”外,還有“三分法”“四分法”。“三分法”根據(jù)人工智能自我學(xué)習(xí)能力的強弱,將智能行政分為“信息收集的自動化”“流程或手續(xù)的自動化”“智能流程的自動化”。“四分法”以數(shù)字技術(shù)的發(fā)展水平和信息處理是否需要人工干預(yù)為標(biāo)準(zhǔn),將智能行政分為“自動化輔助行政”“部分自動化行政”“無裁量能力的完全自動化行政”“有裁量能力的完全自動化行政”。《個人信息保護(hù)法》將有人工干預(yù)的自動化決策排除在個人行使自動化決策拒絕權(quán)的決策類型外。在自動化決策中,盡管有人的實質(zhì)干預(yù),但如果決策者存在明顯偏見,仍然有可能在智能系統(tǒng)中嵌入有意或無意的甚至是不易被察覺的歧視。自動化決策拒絕權(quán)適用的決策類型是否要“刻舟求劍”———局限于完全自動化行政/無裁量能力的完全自動化行政和有裁量能力的完全自動化行政中,仍需進(jìn)一步研究。
3. 自動化決策拒絕權(quán)適用前提不明
首先,《個人信息保護(hù)法》第24條第3款對自動化決策拒絕權(quán)適用前提設(shè)定為“對個人權(quán)益有重大影響”,體現(xiàn)了極強的個人信息保護(hù)指向。但如果將自動化決策拒絕權(quán)適用于智能行政的全場域,自動化決策拒絕權(quán)是否只需要考慮“個人權(quán)益”還需要慎重對待。法律的終極目標(biāo)不僅需要保護(hù)個人的自由和權(quán)利,還需要兼顧整個社會的發(fā)展乃至人類的生存。〔28〕在智能行政中,行政機關(guān)借助算法等數(shù)字技術(shù)開展行政活動,不僅涉及個人信息的收集、處理,還涉及對行政相對人人身自由的限制、財產(chǎn)的剝奪等等。因此,在確認(rèn)自動化決策拒絕權(quán)適用場域的基礎(chǔ)上,還需要對自動化決策拒絕權(quán)適用前提中的“個人權(quán)益”作進(jìn)一步說明。
其次,《個人信息保護(hù)法》第24條第3款中又一關(guān)鍵詞為“重大影響”。重大影響的范圍到底有多廣,本次立法未予以說明。”重大影響”的內(nèi)涵與外延具有不確定性和可解釋性,在適用過程中需要個案衡量。GDPR規(guī)定了自動化決策拒絕權(quán)行使前提是“產(chǎn)生法律或類似的重大影響”。該前提的限制范圍過大,法律影響包括對民事權(quán)利產(chǎn)生的影響、有行政法意義的對行政相對人產(chǎn)生的影響、對刑法和憲法所保護(hù)的基本權(quán)利造成的侵害,這就使得該條款在適用過程中存在巨大的困難。在智能行政中,行政機關(guān)需要進(jìn)一步結(jié)合實踐考察,對“重大影響”作出科學(xué)化判斷,實現(xiàn)“在顧及數(shù)據(jù)主體權(quán)利前提下,有效平衡個人、社會和國家之間的利益”。
4. 自動化決策拒絕權(quán)適用銜接不明
在智能行政中,行政相對人的“對抗”舉措缺乏體系性構(gòu)建。首先,自動化決策拒絕權(quán)與其他權(quán)利之間缺乏銜接機制。智能行政在提高行政效率、便捷行政相對人的同時,也帶來諸多技術(shù)、倫理、法律問題。譬如行政相對人程序權(quán)益被忽視、程序價值被壓縮的問題愈發(fā)凸顯換言之,行政相對人的程序權(quán)益在智能行政中的保障明顯不足;又譬如,在算法設(shè)計和研發(fā)的過程中,計算機專家/算法工程師可能更關(guān)注有用性和實效性,而忽視追求目的的正當(dāng)性以及算法活動可能帶來的風(fēng)險;等等。在智能行政中,行政機關(guān)賦予行政相對人對抗算法的權(quán)利,根本目的是保障其合法權(quán)益,但是,自動化決策拒絕權(quán)并非應(yīng)對自動化決策的萬能權(quán)利,它需要與其他權(quán)利共同作用方可發(fā)揮最大的效用。行政機關(guān)需要保障行政相對人在智能行政中行使“知情權(quán)”“要求說明理由權(quán)”“參與權(quán)”“監(jiān)督權(quán)”“刪除權(quán)”等等。GDPR以序言第71條為核心展開,不以單一、個別權(quán)利為依托,而是齊頭并進(jìn)地構(gòu)建了貫穿自動化決策事前、事中和事后的全流程聯(lián)動體系,包括獲得人類干預(yù)的權(quán)利、表達(dá)異議和質(zhì)疑的權(quán)利、獲取相關(guān)解釋的權(quán)利,落實了數(shù)據(jù)保護(hù)的基本要求,充分保障了數(shù)據(jù)主體權(quán)益。我國智能行政中行政相對人權(quán)益保障聯(lián)動體系亟待進(jìn)一步構(gòu)建,以實現(xiàn)個人自動化決策拒絕權(quán)與其他權(quán)利的有效互動。
其次,自動化決策拒絕權(quán)適用效果不彰。法律規(guī)范實施效果評價,一方面需要關(guān)注法律規(guī)范本身設(shè)計的“精巧度”、與實踐需求的“適配度”,另一方面需要關(guān)注法律規(guī)范的實施、適用效果。設(shè)置自動化決策拒絕權(quán),本質(zhì)上是“人工干預(yù)”的直接要求,也是機器人運行中“機器人要讓位于人類”的必然規(guī)律。人類參與到行政決策中不可流于形式,必須是實質(zhì)參與,否則人類的行政參與將淪為“橡皮圖章式”角色定位。為了避免形式化參與,學(xué)者建議引入算法影響評估制度、算法審計制度,評價算法實施效果。個人向行政機關(guān)提出拒絕應(yīng)用自動化技術(shù)作出行政決策的要求后,行政機關(guān)作出的回應(yīng)由誰來監(jiān)督、如何開展監(jiān)督、如何追責(zé)等等,這些問題當(dāng)前缺乏進(jìn)一步探討,也無實踐案例作為例證,需要進(jìn)一步挖掘,以提升自動化決策拒絕權(quán)的適用效果。
三、智能行政中自動化決策拒絕權(quán)的證成
在智能行政中,個體在算法的操控下,呈現(xiàn)出被不斷系統(tǒng)化和數(shù)據(jù)化的特點,逐步陷入喪失主體性的數(shù)字化生存困境。“高級人工智能的出現(xiàn)可能意味著人類的滅亡。”為有效應(yīng)對這種“人讓位于機器、算法技術(shù)”的悖論出現(xiàn),有必要重新確立人在智能行政中的主體性定位。這一方面要求行政機關(guān)在行政活動中不能完全扮演“旁觀者”的角色,也要求行政相對人在行政活動中要“實質(zhì)參與”。欲紓解前文論及的自動化決策拒絕權(quán)適用困境,需要先在理論上證成自動化決策拒絕權(quán)在智能行政中有存在空間。
(一)必要性:智能行政發(fā)展新階段的法治因應(yīng)
1. 權(quán)力與權(quán)利不對等的必要化解路徑
決策是人類的專屬活動,是人類運用自身特有的認(rèn)知與邏輯思維能力,對一定信息和經(jīng)驗進(jìn)行占有、分析,進(jìn)而將人們的思維過程和意志行動過程進(jìn)行結(jié)合的產(chǎn)物。決策從本質(zhì)上來看,其強調(diào)的是人與人之間的一種共情心與同理心。隨著數(shù)字技術(shù)的創(chuàng)新發(fā)展,算法、人工智能等被應(yīng)用于決策中,并逐步從輔助者、參與者轉(zhuǎn)變?yōu)橹鲗?dǎo)者。算法具有賦能、賦權(quán)與控制三重能力,這三重能力對被作用主體形成了一種兼具支配力、控制力和影響力的新型算法權(quán)力。這種算法權(quán)力逐步取代行政機關(guān),雖然提高了行政效率,有助于行政機關(guān)在更短時間作出行政決策,但是“瞬間完成的行政行為……克減了相對人事前要求告知、陳述申辯、舉行聽證的權(quán)利,壓縮甚至取消了行政機關(guān)說明理由的義務(wù),公眾參與存在被架空的危險。算法決策程序的迅速性、自主性,一定程度鉗制了個人表達(dá)的實現(xiàn),引發(fā)了個人在公共行政中的‘離場’”。傳統(tǒng)權(quán)利義務(wù)的對應(yīng)關(guān)系、平衡關(guān)系都被打破,自由、平等、公正和民主等原則都將遭遇挑戰(zhàn)。“公眾參與是現(xiàn)代民主的重要形式。”在數(shù)字技術(shù)嵌入行政決策后,權(quán)力與權(quán)利本有的“隔閡”愈拉愈大,算法權(quán)力不斷擴張,公眾的參與權(quán)利難以保障,公眾在沒有任何事前知情、發(fā)表意見、說明理由、介入的情況下就被動接受來自算法技術(shù)出具的行政決策,導(dǎo)致“一方權(quán)力被放大,另一方權(quán)利被削弱”,權(quán)利與權(quán)力的“天平”嚴(yán)重失衡。
為實現(xiàn)“權(quán)力—權(quán)利”間的平衡,學(xué)界圍繞如何規(guī)制算法提出了算法公開、個人數(shù)據(jù)賦權(quán)與反算法歧視等路徑。算法公開要求行政機關(guān)通過解釋算法打破算法黑箱,實現(xiàn)“算法透明”;個人數(shù)據(jù)賦權(quán)要求對現(xiàn)有個人算法權(quán)利的類型與體系進(jìn)行改良,確保個人權(quán)利不被算法權(quán)力蠶食;反算法歧視則要求算法本身的設(shè)計、運行“中立”,不可隱設(shè)身份歧視。這些規(guī)制路徑都在算法技術(shù)嵌入行政中提出“對話機制”,但是未從根本上允許行政相對人直接向智能行政說“不”。換言之,目前算法規(guī)制路徑的基本前提是智能行政應(yīng)然存在,也必然存在,行政相對人必須接受人工智能、算法等數(shù)字技術(shù)以全自動或半自動方式作出的行政決策。事實上,“這種內(nèi)嵌于正當(dāng)程序中的算法規(guī)制本質(zhì)上仍舊是針對算法的程序性控制”。自動化決策拒絕權(quán)允許行政相對人向自動化決策說“不”,而且不僅允許行政相對人對“作出的決定”說“不”,還允許行政相對人向“作出決定”這個行為說“不”。
一方面將自動化決策拒絕權(quán)的適用階段貫徹自動化決策的始終,另一方面不再局限于程序規(guī)則內(nèi)部的“縫補”,而是直接讓行政相對人站在行政決策外部作出拒絕,通過補強“權(quán)利束”的要素來縮小權(quán)利與權(quán)力間的隔閡。由此可見,引入“自動化決策拒絕權(quán)”是化解智能行政中“權(quán)力—權(quán)利”不對等的必要路徑。
2.嵌入更高強度人工干預(yù)的必然舉措
隨著技術(shù)升級,自動化決策系統(tǒng)中的技術(shù)構(gòu)造也逐步從“人+自動化技術(shù)”轉(zhuǎn)變?yōu)椤叭詣踊夹g(shù)”構(gòu)造,忽視了人不受支配的主體地位。應(yīng)當(dāng)說,確立自動化決策拒絕權(quán)是智能行政要求嵌入更高強度人工干預(yù)的必然舉措。
首先,行政機關(guān)應(yīng)當(dāng)在智能行政中重申人的主體地位。算法讓人陷入客體化的風(fēng)險中。算法權(quán)力是從客體的角度來看待個人的,強調(diào)個人是可以被計算、預(yù)測和控制的客體。在自動化決策中,算法系統(tǒng)通過“資格自動認(rèn)證系統(tǒng)、排名算法和風(fēng)險預(yù)測模型決定了哪些社區(qū)會受到治安巡查,哪些家庭能夠獲得所需資源,誰會被列入工作候選名單,誰又要接受欺詐調(diào)查”,從而形成智能化、自動化的行政方式。這個過程中,專家意見、民眾觀點均讓位于算法系統(tǒng),算法決策中的權(quán)威也從“人類”轉(zhuǎn)為“算法系統(tǒng)”。算法系統(tǒng)從最初的輔助者角色轉(zhuǎn)變?yōu)橹髟渍撸渫ㄟ^不斷更新,與人類語言思維更為貼近,最終“創(chuàng)造世界”,動搖人類的主體地位。“這一主體地位不僅關(guān)乎于人生活的安全,也是人類文明開展的根基,其主體地位一旦動搖,政治、經(jīng)濟、文化、社會制度隨即分崩離析。”人是自我利益的最好判斷者,沒有誰能比利益者本人更了解自己的利益。自動化決策拒絕權(quán)的價值基礎(chǔ)就在于人的主體性的保證。而且,從機器和人類行為特點來看,前者更擅長重復(fù)性活動,后者則擅長復(fù)雜的、需要上下文分析的活動。應(yīng)當(dāng)說,無論人工智能更新到哪一階段,人所具有的語言思維都不可以被算法系統(tǒng)創(chuàng)設(shè)的語言思維所取代。行政決策的科學(xué)化與民主化是社會各階層利益多元化的必然要求。自動化決策系統(tǒng)只能是作出行政決策的載體,絕不可“反客為主”取代行政機關(guān)作出行政決策。
其次,行政機關(guān)不僅需要在自動化決策系統(tǒng)中嵌入“人工干預(yù)機制”,還需要根據(jù)自動化決策系統(tǒng)發(fā)展的程度,嵌入更高強度的“人工干預(yù)機制”。確立自動化決策拒絕權(quán),本質(zhì)上是個人主體地位在智能行政中的重申,也是個人權(quán)利與行政權(quán)力適用順序優(yōu)化整合的結(jié)果。“權(quán)利的優(yōu)先性理念是一個根本要素,而在公平正義中,該理念作為公平正義觀點的一種形式具有其核心作用。”欲凸顯個人權(quán)利在權(quán)力(利)位階排序中的地位,就需要在制度設(shè)計、規(guī)則構(gòu)造中落實位階排序的結(jié)果。前文論及,現(xiàn)有算法規(guī)制路徑本質(zhì)上是內(nèi)嵌于算法技術(shù)提出的優(yōu)化路徑,從未站在技術(shù)之外俯瞰技術(shù)。自動化決策拒絕權(quán)站在算法、人工智能等數(shù)字技術(shù)外,允許行政相對人在權(quán)益受到或可能受到侵害時,拒絕讓自動化決策系統(tǒng)直接作出行政決策。這種規(guī)制路徑相較于其他路徑而言,具有更高的強度,能達(dá)到更好的規(guī)制算法的結(jié)果。
(二)可行性:自動化決策治理進(jìn)路的轉(zhuǎn)化
面對完全自動化決策的風(fēng)險時,歐洲和美國選擇了兩條不同的進(jìn)路。美國選擇的是“計算中立”(computationneutrality)路徑,強調(diào)人與計算機之間應(yīng)當(dāng)保持一定的距離,盡可能實現(xiàn)自動化決策的準(zhǔn)確、公正與客觀。“計算中立”的治理路徑強調(diào)應(yīng)當(dāng)將正當(dāng)程序原則作為基礎(chǔ),通過程序上的補強,增強數(shù)字技術(shù)的“透明度”“公眾參與度”等,最終建構(gòu)起“技術(shù)正當(dāng)程序”(technologicaldueprocess)框架。相反,歐洲認(rèn)為機器學(xué)習(xí)、自動駕駛、自動化武器及自動化決策等人工智能運用場景中要求人類介入,即所謂的“人在回路”(human-in-the-loop)。換言之,即使數(shù)字技術(shù)已經(jīng)發(fā)展到足夠成熟的階段,完全無需依靠人為介入也可以得出結(jié)果,“人在回路”還是要求人類作為把關(guān)者。當(dāng)然,人的作用不僅局限于自動化行政的結(jié)果中,也包括在自動化行政前、自動化行政的過程中,對決策的全程產(chǎn)生“實質(zhì)影響”。歐洲選擇的“人在回路”的治理路徑在其立法中有所體現(xiàn)。譬如《德國聯(lián)邦程序法》第35a條和《德國聯(lián)邦數(shù)據(jù)法》第6a節(jié)對完全自動行政持禁止態(tài)度,GDPR第22條“完全自動化行政決策拒絕權(quán)”也采用“人在回路”的立法路徑。
在“計算中立”的治理路徑中,智能行政中的“有裁量能力的完全自動化行政”完全有可能實現(xiàn)。在“人在回路”的自動化決策治理路徑中,”有裁量能力的完全自動化行政”就無法實現(xiàn),最多只能實現(xiàn)“混合自動化行政”,因為“人在回路”要求人在任何一種自動化決策中都要發(fā)揮實質(zhì)作用。”人在回路”治理路徑的基本假定就是,人和機器都有各自擅長的事情,在混合自動化行政決策中,二者可以達(dá)到一種最佳狀態(tài)。隨著歐盟模式的全球化推廣,“人在回路”的治理路徑也逐漸滲透到各國的立法、制度設(shè)計中。我國的《個人信息保護(hù)法》《中華人民共和國電子商務(wù)法》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》等法律規(guī)范中都選擇“人在回路”的算法治理路徑。“人在回路”面臨著“一味強調(diào)‘人的干預(yù)’,卻忽略人在何時干預(yù)、能否干預(yù)、干預(yù)效果、如何干預(yù)等技術(shù)操作問題”的詰問,也有學(xué)者主張,“計算中立”與“人在回路”并非互相替代的治理路徑,二者對應(yīng)智能行政發(fā)展的不同階段。從人工智能、算法、大數(shù)據(jù)等數(shù)字技術(shù)的發(fā)展來看,數(shù)字技術(shù)的高速發(fā)展已然超出預(yù)測范圍。2022年,OpenAI發(fā)布的深度學(xué)習(xí)技術(shù)的大型自然語言處理模型ChatGPT“通過學(xué)習(xí)大量的自然語言文本數(shù)據(jù),利用統(tǒng)計學(xué)方法和概率分布根據(jù)先前的輸入預(yù)測下一個可能出現(xiàn)的單詞或句子,生成流暢連貫、語法正確、邏輯通順的文本”。隨著這種數(shù)字技術(shù)的應(yīng)用,智能行政可能將步入“有裁量能力的完全自動化行政”階段,”算法黑箱”“算法歧視”變得更為隱蔽,或許無法再通過“計算中立”路徑中的“程序上補強”來達(dá)成治理效果。這時候就需要引入“人在回路”的治理路徑。盡管該路徑也有缺陷,但是可以通過制度設(shè)計、優(yōu)化來發(fā)揮更好的治理效果。
智能行政時代,選擇“人在回路”的數(shù)字技術(shù)治理路徑已是大勢所趨。自動化決策拒絕權(quán)區(qū)別于要求說明理由、知情權(quán)等程序性權(quán)利,其契合“人在回路”的治理路徑,強調(diào)自動化決策中的“高強度人工干預(yù)”。因此,在智能行政中確立自動化決策拒絕權(quán)具有可行性。
四、智能行政中自動化決策拒絕權(quán)的進(jìn)路選擇
前文對自動化決策拒絕權(quán)能否應(yīng)用于智能行政中從正當(dāng)性與可行性兩方面展開了論證。下一步,需要確定自動化決策拒絕權(quán)的研究進(jìn)路。
(一)自動化決策拒絕權(quán)的進(jìn)路選擇:禁令進(jìn)路抑或權(quán)利進(jìn)路?
當(dāng)前學(xué)界圍繞自動化決策拒絕權(quán)的進(jìn)路選擇到底是權(quán)利進(jìn)路還是禁令進(jìn)路展開討論。這背后折射出不同的利益擇向,也直接影響了自動化決策制度構(gòu)建的具體編排。
禁令進(jìn)路強調(diào)“禁止完全自動化決策”,即禁止行政機關(guān)對行政相對人實施完全自動化決策,除非這種決策屬于法律上明確的例外情形。由此可見,禁令進(jìn)路折射出立法者對自動化決策持以相對抵觸和謹(jǐn)慎的態(tài)度。這種進(jìn)路以“禁止自動化決策為主、例外適用為輔”為原則,本質(zhì)上是“事前預(yù)防”理念的落實,從根源上預(yù)防自動化決策對行政相對人權(quán)益的侵犯。有學(xué)者從GDPR“解釋指南”出發(fā),認(rèn)為GDPR第22條是“一般性禁止”,而非個人的“反對權(quán)利”。GDPR認(rèn)為有人工干預(yù)/參與的行政決策因技術(shù)和理性避免了完全機器決策對個人尊嚴(yán)的減損,所以個人不得對這類決策行使自動化決策拒絕權(quán)。
權(quán)利進(jìn)路強調(diào)“賦權(quán)”,即賦予行政相對人免受自動化決策侵?jǐn)_的權(quán)利。該種進(jìn)路變相承認(rèn)了完全自動化決策的存在,即行政機關(guān)在行政相對人拒絕前,仍可以通過自動化決策的方式對行政相對人作出行政決策,也強調(diào)行政相對人可以通過事后補救達(dá)成保護(hù)自我權(quán)益的目的。權(quán)利進(jìn)路事實上是在事前賦予行政相對人針對自動化決策權(quán)的反對權(quán),克服了事前與事中預(yù)警機制的不足,與自動化決策運行中的知情權(quán)、表達(dá)權(quán)、提出異議權(quán)和自動決策運行后的救濟權(quán)共同構(gòu)筑起一套算法風(fēng)險防范機制。譬如,有學(xué)者就主張,GDPR里的自動化決策拒絕權(quán)并非完全的“禁令”,它強調(diào)一種更高的人工介入程度,與“獲解釋權(quán)”“被遺忘權(quán)”同處于自動化決策的個人權(quán)利體系中,三者是層層遞進(jìn)的關(guān)系。還有學(xué)者從GDPR的體例編排出發(fā),認(rèn)為歐盟將自動化決策拒絕權(quán)放在權(quán)利主體權(quán)利的章節(jié)中,是權(quán)利進(jìn)路。
(二)GDPR中自動化決策拒絕權(quán)進(jìn)路選擇的鏡鑒
事實上,GDPR第22條自動化決策拒絕權(quán)到底采取何種立法進(jìn)路一直存在爭議,也影響了具體實踐。除了前述提及的“禁令進(jìn)路”和“權(quán)利進(jìn)路”,近來有學(xué)者主張GDPR第22條本質(zhì)上采取“嚴(yán)格禁令”與“積極權(quán)利”路徑的中間路線。歐盟的立法者著眼于全要素、全過程、多場景,面向數(shù)據(jù)流生命周期建立起了“知情、參與、反對、救濟”的一體化行權(quán)方案,形成了多層次、立體化的程序性聯(lián)動保護(hù)機制,從廣度和深度兩個層面為免受自動化決策約束權(quán)奠定了配套機制。遺憾的是,目前該條款設(shè)計有著限制過多、指引不明的缺陷。
折中進(jìn)路認(rèn)為,GDPR第22條既可以解釋為禁令,也可以解釋為一種反對權(quán),這兩種解釋主要區(qū)別在于數(shù)據(jù)主體是否需要采取措施來限制自動化決策。一方面,折中進(jìn)路淡化自動化決策拒絕權(quán)的權(quán)利屬性,將其從權(quán)利保護(hù)的關(guān)系網(wǎng)中抽離出來,從數(shù)字技術(shù)的發(fā)展對行政相對人權(quán)益的影響出發(fā),要求個人可以主動干預(yù),提出拒絕適用自動化決策作出行政決策的要求。相反,采取權(quán)利進(jìn)路,無論是程序控制還是內(nèi)嵌實體賦權(quán),所缺失的都是在源頭處對算法進(jìn)入公共決策予以嚴(yán)格把控。另一方面,折中進(jìn)路又意識到對數(shù)字技術(shù)持以過分保守態(tài)度,不利于人工智能、大數(shù)據(jù)、算法的進(jìn)一步發(fā)展,允許行政機關(guān)在征求行政相對人同意且不存在違法的情況下,借助自動化決策系統(tǒng)作出行政決策。這種進(jìn)路克服了禁令進(jìn)路和權(quán)利進(jìn)路的“偏執(zhí)觀”和“絕對性”,實現(xiàn)“權(quán)利保護(hù)與產(chǎn)業(yè)發(fā)展間的精細(xì)平衡”。
(三)自動化決策拒絕權(quán)的進(jìn)路選擇:一種折中的進(jìn)路
不可否認(rèn),自動化決策依托算法技術(shù)的決策系統(tǒng)替代人類決策,能夠大幅提高行政效率、克服執(zhí)法的恣意、保證決策標(biāo)準(zhǔn)的統(tǒng)一。但是,在數(shù)字化技術(shù)的深度應(yīng)用中,作為規(guī)則的代碼對技術(shù)產(chǎn)生了規(guī)范與約束,個人權(quán)利也會為數(shù)字技術(shù)所綁架。前文提及的禁令進(jìn)路反映出立法者對數(shù)字技術(shù)的隱憂,推崇“以人為本”,擔(dān)心算法會蠶食個人權(quán)益。自動化決策是一種借助公式和程序計算獲得的機器判斷,缺乏可識別/解釋的規(guī)則作為依據(jù),可謂自治系統(tǒng)。自動化決策算法容易與“人本主義”相背離,一旦不當(dāng)應(yīng)用,就會禍害無窮。但是,一開始就對數(shù)字技術(shù)持有抵觸情緒,會直接影響數(shù)字技術(shù)的良性發(fā)展和合理應(yīng)用。權(quán)利進(jìn)路反映出立法者對數(shù)字技術(shù)抱有相對樂觀的態(tài)度,堅信“計算中立”。可是,算法的“原罪”在于其設(shè)計之初有意或無意地引入了某種簡化和誤差,而這在后續(xù)的更新迭代中被不可避免地放大。而且,”在雙方力量懸殊時,單純的賦權(quán)并不足以改變權(quán)力/權(quán)利之間的勢差”。由此可見,無論是禁令進(jìn)路還是權(quán)利進(jìn)路,都有一定的局限。GDPR中的折中進(jìn)路避免智能行政對個人權(quán)益的保護(hù)陷入兩種極端,即過分關(guān)注個人權(quán)益忽視信息技術(shù)發(fā)展的極端、過分關(guān)注信息技術(shù)發(fā)展忽視個人權(quán)益的極端。
我國智能化行政可以選擇折中進(jìn)路,從根本上避免智能化行政對相對人權(quán)益保護(hù)陷入兩種極端。折中進(jìn)路并非權(quán)利進(jìn)路或禁令進(jìn)路在不同場景下的選擇,而是具有普通適用性的自動化決策拒絕權(quán)進(jìn)路選擇。我國要在智能行政中構(gòu)建起自動化決策拒絕權(quán)的制度體系,就需要恪守折中進(jìn)路中的“三性”,即宏觀性、弱對抗性和動態(tài)性,達(dá)成“一方面建立即時矯正異化的‘束狀權(quán)力結(jié)構(gòu)’,另一方面擴充長效制衡權(quán)力的‘算法權(quán)利版圖’”的效果,真正發(fā)揮自動化決策拒絕權(quán)的作用。
首先,自動化決策拒絕權(quán)制度體系的構(gòu)建需要遵循折中進(jìn)路中的宏觀性。傳統(tǒng)禁令進(jìn)路與權(quán)利進(jìn)路都將自動化決策權(quán)作為制度構(gòu)建的核心范疇,卻從未站在自動化決策拒絕權(quán)應(yīng)用于智能行政的場景來審視。這一方面導(dǎo)致自動化決策拒絕權(quán)閉門造車,停留在權(quán)利譜系中不停演繹。畢竟,”權(quán)利總是個別且列舉性的,難以將公法中的權(quán)限和程序所具有的制度性自我規(guī)制,以及對抽象的公民整體權(quán)利保護(hù)全部歸納入個人的權(quán)利體系中”。另一方面導(dǎo)致自動化決策拒絕權(quán)的研究停留在對完全自動化系統(tǒng)和混合自動化系統(tǒng)二元應(yīng)用場景的“圈地運動”中。學(xué)界因禁令進(jìn)路的影響,對混合自動化系統(tǒng)持包容態(tài)度,而對完全自動化系統(tǒng)趕盡殺絕。自動化行政決策的最終發(fā)展階段應(yīng)當(dāng)是應(yīng)用完全自動化系統(tǒng)的階段。無限的“圈地運動”,只會將完全自動化行政決策阻擋在算法技術(shù)發(fā)展的大門外。因此,自動化決策拒絕權(quán)的折中進(jìn)路就要求我們要在“算法決策大規(guī)模進(jìn)入公共領(lǐng)域這一現(xiàn)實背景下”構(gòu)建制度,確保研究視角的宏觀性。
其次,自動化決策拒絕權(quán)制度體系的構(gòu)建需要遵循折中進(jìn)路中的弱對抗性。無論是禁令進(jìn)路還是權(quán)利進(jìn)路,都習(xí)慣將算法技術(shù)或個人權(quán)利中的某一方逼到“死角”。事實上,將自動化決策與人工行政決策的運行邏輯對比來看,算法決策遵循數(shù)理邏輯,法律決策依據(jù)社會邏輯,二者處于完全不同的邏輯系統(tǒng),算法自動化決策僅能做到提高效率、減少工作重復(fù)和簡單的推理,若要將算法決策轉(zhuǎn)化為法律決策,擺在前面的技術(shù)障礙和理論阻卻難以突破。既然算法決策與法律決策屬于兩種不同的邏輯系統(tǒng),我們就更不應(yīng)當(dāng)將它們放置在刻度尺的兩端,相反,我們應(yīng)弱化二者的對抗性,挖掘各自的優(yōu)勢,實現(xiàn)個人、社會和國家利益間的平衡,實現(xiàn)個人利益保護(hù)與國家數(shù)據(jù)產(chǎn)業(yè)發(fā)展間的動態(tài)平衡。
最后,自動化決策拒絕權(quán)制度體系的構(gòu)建需要遵循折中進(jìn)路中的動態(tài)性。禁令進(jìn)路強調(diào)行政相對人可以在自動化決策前就拒絕行政機關(guān)借助自動化系統(tǒng)作出決策。權(quán)利進(jìn)路克服禁令進(jìn)路的局限性,嘗試豐富權(quán)利譜系,將自動化決策拒絕權(quán)適用于自動化決策的全過程。盡管權(quán)利進(jìn)路相較于禁令進(jìn)路,關(guān)注到造成“權(quán)利—權(quán)力”失衡的某一方面原因,但是該進(jìn)路過份強調(diào)自動化決策拒絕權(quán)的適用,反而導(dǎo)致權(quán)利行使的形式化。折中進(jìn)路的動態(tài)性本質(zhì)上要求自動化決策拒絕權(quán)在制度構(gòu)建時增強制度彈性。一方面要求自動化決策拒絕權(quán)在不同適用場景中根據(jù)需要選擇不同強度的人工干預(yù),另一方面則要求自動化決策拒絕權(quán)在適用某一場景時,“建立特定時間段內(nèi)的流動性平衡,而非某個時間點上的時時平衡”。
五、智能行政中自動化決策拒絕權(quán)的適用展開
自動化決策拒絕權(quán)在適用中面臨著進(jìn)路選擇不清,適用場域、適用前提、適用銜接不明等困境。我國應(yīng)當(dāng)以折中進(jìn)路作為自動化決策拒絕權(quán)的進(jìn)路選擇,選擇折中進(jìn)路有助于克服禁令進(jìn)路和權(quán)利進(jìn)路的不足,還有助于將折中進(jìn)路的宏觀性、弱對抗性和動態(tài)性應(yīng)用于智能行政自動化決策拒絕權(quán)適用困境的化解中。在折中進(jìn)路的指引下,自動化決策拒絕權(quán)的適用場域、適用前提和適用銜接能進(jìn)一步明晰。
(一)拓寬自動化決策拒絕權(quán)的適用場域
當(dāng)下自動化決策拒絕權(quán)適用場域面臨的問題在于既無法確定其能否完全應(yīng)用于智能行政的各個場域,也無法確定其是否能夠應(yīng)用于完全自動化決策中。
首先,自動化決策拒絕權(quán)應(yīng)當(dāng)適用于智能行政的各個場域。盡管《個人信息保護(hù)法》是一部橫跨公私兩域的法律,但是該法只對處理個人信息的決策活動作出規(guī)定,未涉及行政決策的其他領(lǐng)域。在傳統(tǒng)行政活動中,信息資源匱乏、信息收集緩慢且成本高昂、信息處理能力羸弱。隨著科技的發(fā)展,我國的“物理政府”也因為互聯(lián)網(wǎng)、大數(shù)據(jù)、算法、人工智能等數(shù)字技術(shù)的促進(jìn)逐漸向“數(shù)字政府”轉(zhuǎn)型。《綱要》提出的“全面建設(shè)數(shù)字法治政府”,更是將“數(shù)字政府”的建設(shè)提到更高的層面,即要實現(xiàn)法治與數(shù)字的深度耦合、法治政府的數(shù)字化轉(zhuǎn)型。運用算法等數(shù)字技術(shù)進(jìn)行自動化決策是數(shù)字政府的核心。自動化決策不僅包括個人信息的收集,還包括運用算法進(jìn)行模型構(gòu)建、風(fēng)險預(yù)測、網(wǎng)上流程管理、網(wǎng)上審批等等。自動化決策拒絕權(quán)相較于以往的“說明理由”“聽取意見”等程序權(quán)利具有“更強人工干預(yù)”的特點。雖然個人信息的保護(hù)強度直接影響個人利益的保障程度,但智能行政的法治化程度更是直接影響個人利益、社會利益和公共利益,還可能影響現(xiàn)代法治的發(fā)展程度和升級限度。因此,有必要在智能行政中引入自動化決策拒絕權(quán),調(diào)適“權(quán)力—權(quán)利”失衡的局面,營造良好數(shù)字生態(tài)。明確自動化決策拒絕權(quán)的廣泛適用場域與折中進(jìn)路中的宏觀性相契合。宏觀性要求我們對自動化決策權(quán)的研究站在智能行政的場景來審視,實現(xiàn)智能行政應(yīng)用情景與自動化決策拒絕權(quán)的深度融合。
其次,自動化決策拒絕權(quán)不僅可以在混合自動化系統(tǒng)中適用,還可以在完全自動化系統(tǒng)中適用。折中進(jìn)路的宏觀性要求自動化決策拒絕權(quán)的適用擺脫智能行政的“二分法”“三分法”乃至“四分法”的局限,以宏觀視角剖析智能行政,沒有必要再對自動化決策拒絕權(quán)“進(jìn)行基于數(shù)據(jù)庫編碼的計算機自動化、基于機器學(xué)習(xí)的算法自動化和基于神經(jīng)網(wǎng)絡(luò)的超級自動化的場景劃分”。一方面,完全自動化系統(tǒng)可能一開始就攜帶“偏見、黑箱、高對話成本”,人在自動化決策的設(shè)計中,可能有意無意地將自身的價值追求、預(yù)期目標(biāo)置入算法中。以算法歧視為例,如果一開始嵌入自動化系統(tǒng)的海量訓(xùn)練數(shù)據(jù)就隱藏歧視,那無論智能系統(tǒng)如何更新迭代,算法歧視總會貫徹始終。另一方面,混合自動化系統(tǒng)可能早已成為完全自動化系統(tǒng)的外套。考慮到“人工智能算法在語言和思維層面愈來愈迫近人類”,行政機關(guān)的工作人員為減少自身思考,假借“盡到人工干預(yù)義務(wù)”之名,忽略“個別情況考慮義務(wù)”,將決策權(quán)全部托付給自動化決策系統(tǒng)。畢竟在算法等數(shù)字技術(shù)高歌猛進(jìn)的當(dāng)下,行政機關(guān)借助算法技術(shù)形成形式上的人工干預(yù)來規(guī)避“個人干預(yù)義務(wù)”的行使也非難事,但是這種人工干預(yù)對自動化決策不產(chǎn)生實質(zhì)性影響。在混合自動化系統(tǒng)與完全自動化系統(tǒng)之間界限愈發(fā)模糊的同時,個人對自動化決策也開始愈發(fā)秉持一種“不信任”的態(tài)度。如果個人一開始就對決策主體持懷疑態(tài)度、缺乏基本信任,那無論決策主體如何公開信息都會被排斥、決策結(jié)果如何合理都會被反對,決策也無法被執(zhí)行,更有甚者,決策的情境可能都無法啟動。
《個人信息保護(hù)法》第23條第4款中的“僅通過自動化決策的方式”將自動化決策拒絕權(quán)適用場域限定于“自動化決策的方式”,但未限定為“完全自動化決策的方式”。本文不再拘泥于自動化決策方式的程度分類,而是根據(jù)自動化決策拒絕權(quán)適用的宏觀性主張自動化決策拒絕權(quán)的適用場域應(yīng)當(dāng)拓寬至智能行政的各個場域。該種在折中進(jìn)路指引下的規(guī)范闡釋并不會與《個人信息保護(hù)法》現(xiàn)有規(guī)定相齟齬。因此,出于對自動化系統(tǒng)運行現(xiàn)狀的考量和個人利益、社會利益和國家利益保護(hù)的需求,自動化決策拒絕權(quán)應(yīng)當(dāng)全場景適用于智能行政中,且無需限定僅適用于完全自動化行政中,需要全面拓寬其適用場域。
(二)劃定自動化決策拒絕權(quán)的適用前提
《個人信息保護(hù)法》第24條第3款規(guī)定自動化決策拒絕權(quán)的適用前提是“對個人權(quán)益有重大影響”。但是,該規(guī)定存在適用模糊的困境。唯一可以確定的是,自動化決策拒絕權(quán)中的“個人”必須是智能行政中享有權(quán)益的行政相對人,而不是他人。“對個人利益有重大影響”的判斷還需要在折中進(jìn)路的引導(dǎo)下進(jìn)一步展開,避免對“對個人權(quán)益有重大影響”作擴大、泛化解釋,導(dǎo)致行政相對人濫用自動化決策拒絕權(quán)。
首先,應(yīng)當(dāng)將對“對個人權(quán)益有重大影響”的判斷置于一個動態(tài)的分析框架內(nèi)。一方面,可以通過“列舉+兜底”或“分級排序”的方式界定“重要影響”中的判斷要素。GDPR第22條將適用前提規(guī)定為“產(chǎn)生法律或類似的重大影響”,歐盟第29條數(shù)據(jù)保護(hù)小組認(rèn)為,重大影響是對數(shù)據(jù)主體產(chǎn)生長期或永久影響或在最極端的情況下導(dǎo)致對個人的排斥或歧視。我們可以從中提煉出重大影響的幾個共同要素,具體包括法律地位的失衡、影響的持續(xù)性、影響的極端性、合法權(quán)益的明顯侵害等等。這些要素可以作為列舉的要素。另一方面,重大影響的判斷標(biāo)準(zhǔn)需要有兜底情形,避免“判斷徹底量化”情形的出現(xiàn)。算法、人工智能、大數(shù)據(jù)等數(shù)字技術(shù)日新月異,對個人權(quán)益產(chǎn)生的影響也處在不斷變化中。譬如,新出現(xiàn)的生成式人工智能技術(shù)就塑造了人機共生的關(guān)系,區(qū)別于深度合成技術(shù)、智能交互技術(shù)、高風(fēng)險人工智能。這種技術(shù)應(yīng)用于自動化決策中,”對個人權(quán)益有重大影響”的判斷標(biāo)準(zhǔn)可能又有變化。如果直接以全面列舉的方式對適用前提作出界定,會難以適應(yīng)實踐的需求,影響判斷標(biāo)準(zhǔn)的實踐性。折中進(jìn)路的動態(tài)性不僅要求權(quán)利譜系的動態(tài)變化,也要求自動化決策拒絕權(quán)制度設(shè)計應(yīng)富有制度彈性,即動態(tài)、流動地滿足實踐需要。因此,重大影響的判斷標(biāo)準(zhǔn)還需要設(shè)計兜底情形,即“一般理性人”融合具體場景綜合考量、合理評估后認(rèn)為屬于重大影響的。如此一來,對“對個人權(quán)益有重大影響”的判斷就既有直接指向性,避免了模糊性缺陷,又有靈活性,能較好地適應(yīng)智能行政的發(fā)展變化。
其次,”對個人權(quán)益有重大影響”中的“影響”既包括已經(jīng)發(fā)生的影響,也包括未發(fā)生的影響。重大影響的判斷本質(zhì)上涉及行政裁量,需要行政機關(guān)根據(jù)影響發(fā)生的階段、影響范圍等要素動態(tài)調(diào)適判斷標(biāo)準(zhǔn)的松緊:對已經(jīng)發(fā)生的影響采用相對“寬松”的判斷標(biāo)準(zhǔn),對未發(fā)生的影響采用相對“嚴(yán)格”的判斷標(biāo)準(zhǔn)。如果對未發(fā)生的影響采用過于寬松的標(biāo)準(zhǔn),有“矯枉過正”之嫌,無益于數(shù)字技術(shù)、產(chǎn)業(yè)的健康發(fā)展。傳統(tǒng)行政法學(xué)研究恪守依法行政原則,著眼于行政行為的病理性分析,缺乏“最佳行政”的分析視角。新的行政法的二維結(jié)構(gòu)應(yīng)當(dāng)是“合法行政”與“最佳行政”的二維互動。“合法行政”與“最佳行政”的互動強調(diào)行政的合理性,亦對行政機關(guān)與相對人之間的關(guān)系提出更高的要求,即高權(quán)行政活動的疆域應(yīng)適當(dāng)縮小。對“對個人權(quán)益有重大影響”的判斷既要遵循法律規(guī)范的基本要求,還要考慮判斷背后的“利益博弈”,強調(diào)行政機關(guān)與相對人之間的弱對抗性,尋求最佳方案,實現(xiàn)內(nèi)在利益的動態(tài)平衡,達(dá)成最佳行政的目標(biāo)。
(三)優(yōu)化自動化決策拒絕權(quán)的適用銜接
自動化決策拒絕權(quán)在全場域適用于智能行政后,還需要考慮如何實現(xiàn)自動化決策拒絕權(quán)的適用協(xié)調(diào),構(gòu)建起一個封閉周密的行政相對人合法權(quán)益保護(hù)網(wǎng),改善“權(quán)力—權(quán)利”失衡的局面,弱化個人與行政機關(guān)之間的對抗性,充分發(fā)揮自動化系統(tǒng)的優(yōu)勢,推進(jìn)數(shù)字技術(shù)產(chǎn)業(yè)的良性發(fā)展。優(yōu)化自動化決策拒絕權(quán)的適用銜接,需要從自動化決策拒絕權(quán)的適用階段和自動化決策拒絕權(quán)與其他權(quán)利有序銜接兩方面展開(參見圖1)。
![]()
1. 確立自動化決策拒絕權(quán)適用階段
第一,現(xiàn)有法律規(guī)范為自動化決策拒絕權(quán)適用階段的確立提供了依據(jù)。《個人信息保護(hù)法》第24條第3款將自動化決策拒絕權(quán)的適用階段規(guī)定為“作出決定”。前文提及,“作出決定”區(qū)別于“作出的決定”:前者強調(diào)行政機關(guān)借助自動化系統(tǒng)作出決策這一活動,更多的是行為上的宣示;后者強調(diào)行政機關(guān)借助自動化系統(tǒng)作出的決策,更關(guān)注“最終的決策”。因此,“作出決定”不在乎決定是否已經(jīng)作出,在乎的是行為會對個人產(chǎn)生的重大影響。而且《個人信息保護(hù)法》第24條第3款的“并”字說明“要求說明理由權(quán)”與“自動化決策拒絕權(quán)”之間沒有行使的前后順序。個人有權(quán)要求信息處理者對“作出的決定”說明理由,這在實踐上表示為作出決定后的說明。而自動化決策拒絕權(quán)不要求個人必須在信息處理者作出決定后才可行使。
第二,自動化決策拒絕權(quán)可以在自動化決策的任何一個階段提出是自動化決策“人在回路”治理路徑的要求,是個人自決在數(shù)字時代的內(nèi)在要求。個人自決指的是,個人在面對某種可能性的時候,有作出從事或放棄決定的自由。在數(shù)字時代,“人可能將技術(shù)理性發(fā)展得非常完美,但其總會有所保留,而這個保留的東西就是人文”。這種“人文關(guān)懷”應(yīng)當(dāng)貫徹自動化決策的始終,不應(yīng)對個人的拒絕設(shè)定不合理的“門檻”;這種“人文關(guān)懷”也不應(yīng)當(dāng)有行使階段的限制,行政機關(guān)應(yīng)保護(hù)個人在認(rèn)為有“某種可能性”存在時就行使自動化決策拒絕權(quán)的自由。
第三,自動化決策拒絕權(quán)的全階段適用是折中進(jìn)路中宏觀性的基本要求。折中進(jìn)路要求我們對自動化決策拒絕權(quán)的解釋不再停留在權(quán)利譜系中不停演繹。我們需要站在公民知情權(quán)、提出異議權(quán)、獲得解釋權(quán)等權(quán)利的外圍,瞰覽智能行政中的權(quán)利譜系。自動化決策拒絕權(quán)應(yīng)當(dāng)與知情權(quán)、提出異議權(quán)等權(quán)利相區(qū)別,不拘泥于適用階段片段性。
2.構(gòu)建自動化決策中的全流程行權(quán)機制
行政機關(guān)作出自動化決策可以分為作出前、作出中和作出后。為保障行政相對人在自動化決策中的合法權(quán)益,有必要在自動化決策的每一階段嵌入行政相對人的行權(quán)路徑、確定每一階段行政相對人的權(quán)利內(nèi)容,構(gòu)建起決策前的風(fēng)險識別預(yù)警機制、決策中的風(fēng)險抵御機制和決策后的風(fēng)險消弭機制。
在決策前的風(fēng)險識別預(yù)警機制中,行政機關(guān)需要保證算法決策的公開、保證個人知情權(quán)的實現(xiàn)。在自動化決策系統(tǒng)中,行政機關(guān)會預(yù)先向其置入程序語言,組建起模擬人類思維模式的模型。囿于算法語言的理解門檻和自我的考量,行政機關(guān)一般不愿意向公眾公開算法決策內(nèi)部的利益權(quán)衡、規(guī)則內(nèi)容,從而會加大公眾與行政機關(guān)的“代溝”。這本質(zhì)上違反了行政公開原則。行政機關(guān)對“算法作出決策的基本規(guī)則和因素權(quán)重,應(yīng)該對公眾與社會公開”。從行政相對人的角度而言,其可以直接以行使“知情權(quán)”為由,要求行政機關(guān)主動以一般人可以理解的表達(dá)方式公開自動化決策系統(tǒng)內(nèi)部的規(guī)則、因素權(quán)重。
在決策中的風(fēng)險抵御機制中,行政機關(guān)應(yīng)當(dāng)允許公眾對決策系統(tǒng)、決策提出異議,也應(yīng)當(dāng)保證行政相對人在自動化決策中實現(xiàn)“獲得解釋權(quán)”。個人在發(fā)現(xiàn)自動化決策系統(tǒng)中的算法存在歧視、利益衡量存在不公的時候就可以直接向行政機關(guān)提出異議。在傳統(tǒng)行政決策中,行政機關(guān)通過專家參與和公眾參與提高決策的科學(xué)性與民主性。在自動化決策中,專家和公眾在“黯然離場”中面臨著權(quán)益受到侵害的風(fēng)險。因此,個人可以對之前公開的決策基本規(guī)則和因素權(quán)重中存在的問題提出異議,調(diào)整其在自動化決策中的弱勢地位。這也算智能時代專家意見的主導(dǎo)地位讓位于數(shù)據(jù)與算法的補救措施。“獲得解釋權(quán)”可以理解為個人權(quán)利中的“權(quán)利束”,更多應(yīng)用于個人信息保護(hù)領(lǐng)域。“獲得解釋權(quán)”本質(zhì)上也是行政相對人提出異議權(quán)的延伸,可以紓解自動化決策中算法妨害等問題。
在決策后的風(fēng)險消弭機制中,行政機關(guān)既可以允許行政相對人對行政決策提出異議、尋求權(quán)利上的救濟,也應(yīng)當(dāng)對自動化決策系統(tǒng)中裁量事實、裁量結(jié)果、裁量事實與裁量結(jié)果之間的因果關(guān)系進(jìn)行說明。《個人信息保護(hù)法》第24條第3款對“要求說明理由權(quán)”作出了規(guī)定,明確行政相對人在自動化決策對個人權(quán)益造成重大影響時可以要求行政機關(guān)予以說明。此時,這種說明理由就成為行政機關(guān)的一項義務(wù),應(yīng)當(dāng)在“對個人權(quán)益有重大影響”的適用前提下嚴(yán)格遵循。
在構(gòu)建決策前風(fēng)險預(yù)警機制、決策中風(fēng)險抵御機制和決策后風(fēng)險消弭機制后,還需要將自動化決策拒絕權(quán)嵌入自動化決策的各個階段,實現(xiàn)自動化決策中權(quán)利的有效聯(lián)動,搭建起一個立體化、全面化、動態(tài)化的行政相對人行權(quán)體系。
結(jié)語
在當(dāng)前的智能行政中,雖然有裁量能力的完全自動化行政暫無實例,但是隨著大數(shù)據(jù)、人工智能、算法等數(shù)字技術(shù)的高速發(fā)展、迭代更新,有裁量能力的完全自動化行政也將出現(xiàn)在不久的將來。”人工智能算法獨特的運行邏輯導(dǎo)致法律賴以生成與存在的社會結(jié)構(gòu)性場景發(fā)生了重大變化,加劇了決策者與相對人之間的‘?dāng)?shù)字鴻溝’,造成個人權(quán)利與算法權(quán)力之間的失衡,從而誘發(fā)了一系列的倫理問題。”我們不能因為數(shù)字技術(shù)存在的問題就對其秉持悲觀、消極的態(tài)度,選擇一味地否定,也不能因為數(shù)字技術(shù)帶來的數(shù)字紅利,就允許人的主體性被數(shù)字技術(shù)消解。應(yīng)當(dāng)逐步摒棄“計算中立”的二分立場,選擇對“人在回路”的立場進(jìn)行改造,紓解“權(quán)力—權(quán)利”失衡的格局,明確在智能行政中“最終由人來面對每一位評價者,側(cè)耳傾聽他們發(fā)出的聲音”。自動化決策拒絕權(quán)作為人與數(shù)字技術(shù)對話的一次重要機會,不應(yīng)人為增強二者的對抗性,相反可以選擇一種折中進(jìn)路,允許人在自動化決策的任何階段發(fā)聲,捍衛(wèi)人在自動化決策乃至智能行政中的尊嚴(yán)與主體性地位。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.