![]()
作者 簡 介 : 張文祥,仰恩大學法學院。本文 系 福建省社會科學基金項目“自動化行政的技術(shù)邏輯與法律規(guī)制研究”(項目批準號:FJ2025C062)階段性成果;中國僑聯(lián)課題(課題編號:24AZQK202)階段性成果。 文 章來源:《 成都理工大學學報(社會科學版) 》 2025年9月 29日網(wǎng)絡(luò)首發(fā)。注釋及參考文獻已略, 引用請以原 文為準。
摘要
近年來人工智能發(fā)展迅猛,自動化行政對行政活動產(chǎn)生了極大沖擊。已有的國內(nèi)研究成果中,主要涉及法律風險、程序權(quán)利、治理范式、立法等內(nèi)容,較少運用實證數(shù)據(jù)和跨學科分析方法。人工智能時代自動化輔助行政、部分自動化行政、完全自動化行政三個發(fā)展階段存在不同的風險樣態(tài),在提取司法裁判現(xiàn)狀和實踐案例后,其風險樣態(tài)可以歸納為權(quán)力黑箱、治理偏見、權(quán)力異化、權(quán)力惰性、私權(quán)侵害五個基本范疇。本文旨在針對自動化行政的現(xiàn)實風險提出規(guī)制路徑,如明確可解釋性規(guī)則、凝聚治理共識、承認社會權(quán)力、確立以人為本的理念、落實最小損害原則。探索人工智能運用于各類行政行為的可能性和規(guī)制路徑,能豐富自動化行政發(fā)展的研究范式,預(yù)防規(guī)制失靈。
一、問題提出及文獻綜述
人工智能催生了新技術(shù)、新產(chǎn)業(yè)、新模式,在立法和行業(yè)規(guī)則尚未完善的背景下,人工智能發(fā)展速度已經(jīng)逐漸超出社會規(guī)則所能規(guī)范的范疇,由此產(chǎn)生了“時空壓縮”現(xiàn)象。為此,黨的二十屆三中全會明確提出“完善生成式人工智能發(fā)展和管理機制”“加強網(wǎng)絡(luò)安全體制建設(shè),建立人工智能安全監(jiān)管制度”。從自動化輔助行政到完全自動化行政的發(fā)展過程中,探索人工智能時代自動化行政的規(guī)制路徑意義重大。
國內(nèi)學者早期研究聚焦于電子政務(wù)和數(shù)字化行政,隨著人工智能技術(shù)的發(fā)展,逐漸關(guān)注“自動化行政”這一范疇。如部分學者從算法權(quán)力角度,提出算法治理和算法霸權(quán)問題。針對自動化行政的法律風險,學者們分別提出侵犯公民權(quán)利、程序權(quán)利懸置、算法解釋困難、裁量負外部效應(yīng)等概念界定。針對自動化行政的法律規(guī)制,學者們分別提出實施敏捷治理、引入解釋權(quán)、立法適度照顧公眾的感知風險、分級分類治理范式、運用軟法規(guī)范等規(guī)制措施。可見,已有的國內(nèi)研究成果中,主要涉及法律風險、程序權(quán)利、治理范式、立法等內(nèi)容,極少結(jié)合自動化行政的技術(shù)邏輯和實證經(jīng)驗,規(guī)范政府使用人工智能技術(shù)。本文將從司法裁判現(xiàn)狀和實踐案例切入,運用跨學科思維,探討規(guī)制路徑。
國外學者早期關(guān)注技術(shù)性正當程序和算法決策,近期轉(zhuǎn)向研究人工智能技術(shù)的運用問題。如學者們分別對加拿大、英國、瑞典、美國和歐盟的運用現(xiàn)狀進行研究。研究表明,加拿大行政部門根據(jù)指令披露了他們對算法系統(tǒng)的使用情況,但無法確認所披露的信息是否詳盡。英國政府擔心會降低政府決策的透明度和公平性,算法可能從格式糟糕的數(shù)據(jù)集中繼承人類的偏見。在瑞典,因立法者希望法律保持技術(shù)中立,法律沒有明確規(guī)定何時允許自動決策,良好行政和法治等核心民主理想也很少被關(guān)注。美國和歐盟都承認,如果人工智能技術(shù)不以負責任的方式開發(fā)和部署,就會存在與之相關(guān)的風險,并肯定了“以人為本”的方法。針對自動化行政的法律風險,學者從行政裁量權(quán)和程序公平性角度,探究人工智能時代問責機制和法治價值問題。Grimme likhuijsen & Meijer認為,算法政府的特點是復(fù)雜性、不透明性和相互依賴性,這些特征改變了政府決策的性質(zhì),并產(chǎn)生了一系列對政府合法性的威脅。Kanitz et al.指出,用生成式人工智能工具加強變革活動時,必須保持謹慎和批判性思維。可見,域外學者們認為,人工智能存在不透明、偏見、認知錯誤與偏差、數(shù)據(jù)安全、合法性等問題。人工智能時代自動化行政的發(fā)展,也會不可避免地產(chǎn)生類似問題,需要我國政府部門予以重視。同時,域外學者注重運用實證數(shù)據(jù)和跨學科分析方法,這也是本文要突破的重點方向。
二、人工智能時代自動化行政的發(fā)展階段
本文采用案例研究方法探討人工智能時代自動化行政的發(fā)展階段,運用司法判例和行政機關(guān)實踐樣本勾勒自動化行政的發(fā)展樣態(tài)。人工智能時代的自動化行政,根據(jù)不同程度的人為干預(yù),可分為輔助、部分和全自動化三個階段,本部分將探討上述三個階段中自動化行政的發(fā)展狀況。
(一)強人工干預(yù)的 自動 化輔助行政
輔助狀態(tài)下,自動化系統(tǒng)只能發(fā)揮協(xié)助人類完成某項工作的作用,無法單獨承擔一部分任務(wù),即識別、分析、決定的權(quán)力仍然全部掌握在行政機關(guān)工作人員手上。自動化輔助行政類型眾多,以交通執(zhí)法領(lǐng)域的處罰為代表。因交通違法行為具有瞬時性和證據(jù)標準化特征,在采用自動化系統(tǒng)后,必須輔助人工干預(yù),以保障實體公正和行政相對人的程序權(quán)益。下文將探討實務(wù)案例中,自動化輔助行政存在的實體或者程序問題。
![]()
從上述五起案件中,能發(fā)現(xiàn)作為輔助角色的電子警察,在取證環(huán)節(jié)經(jīng)常會出現(xiàn)完整性、真實性問題,并且出現(xiàn)程序問題。如案例1和案例2當中,當事人同樣對電子眼形成的證據(jù)提出了質(zhì)疑,不同地區(qū)有不同的判決結(jié)果。案例3、案例4、案例5當中,針對程序問題,不同法院的觀點有所區(qū)別,部分法院認為不影響行政相對人的權(quán)利,不影響行政行為的效力;也有法院認為,這是程序上的不合法行為,依法應(yīng)當撤銷。可見,不同法院在自動化輔助行政的程序正當問題上,存在不一樣的認定標準。
實務(wù)判例中,司法機關(guān)一般會認定運用電子警察設(shè)備執(zhí)法符合法律規(guī)定,并且主張有限審查,即只審查電子設(shè)備投入過程、是否明顯不科學和產(chǎn)生大量的異議。在“寧伯學、保定市公安局交通警察支隊、保定市公安局行政處罰再審審查與審判監(jiān)督”一案中,寧伯學主張行政機關(guān)沒有提交電子警察設(shè)備的執(zhí)法手續(xù)、技術(shù)檢驗合格手續(xù)、技術(shù)規(guī)范或相應(yīng)規(guī)定;再審法院審查后認為,要求提供電子警察設(shè)備相關(guān)手續(xù)及檢驗結(jié)果,沒有法律依據(jù)。“何凱、上海市公安局黃浦分局交警支隊行政處罰案”中,司法機關(guān)認為法庭審查技術(shù)性問題的標準是法定審查,即審查系統(tǒng)是否經(jīng)過充分論證和測試、是否明顯違反邏輯和科學或難以解釋、是否存在重大反對意見或科學合理的懷疑;并指出從專業(yè)視角否認該裝置的科學性,可能會對非法鳴笛的治理造成負面影響,影響行政機構(gòu)在未來執(zhí)法活動中利用高科技手段懲治交通違法行為的能力。當前多數(shù)地區(qū)采用技術(shù)手段實施交通執(zhí)法行為,其中佛山廣臺高速的“天價罰單”引發(fā)了熱議。在該地區(qū)一段道路上啟動電子警察后,一年內(nèi)記錄了1.8萬多起交通違法行為,但交通事故總數(shù)和事故受傷人數(shù)同比大幅度下降;面對處罰,眾多車主積極申請行政復(fù)議維權(quán),部分處罰行為被復(fù)議機關(guān)撤銷。可見,以電子警察為代表的自動化輔助行政是把雙刃劍,一方面它提高了行政效能,減少了交通事故的發(fā)生;另一方面它增加了執(zhí)法密集度,引發(fā)了新的行政爭議,致使維權(quán)數(shù)量增多,進而讓復(fù)議機關(guān)和司法機關(guān)的工作量增大。
(二)弱人工干預(yù)的部分自動化行政
部分自動化狀態(tài)下,自動化系統(tǒng)能夠獨立完成某項任務(wù),此任務(wù)無需人為干涉。在生成式人工智能背景下,自動化系統(tǒng)可以預(yù)先設(shè)定算法,在收集和挖掘海量數(shù)據(jù)之后,通過機器學習的方式形成自主決定的內(nèi)容。交通執(zhí)法領(lǐng)域存在眾多的部分自動化行政,如在中國的智能交通中,通過運行基于深度學習的計算機視覺算法來生成結(jié)構(gòu)化數(shù)據(jù),如目標行人的位置、行駛速度、方向等,并進一步解決農(nóng)村道路建設(shè)檢查監(jiān)督中的資源浪費和缺乏直觀結(jié)果等問題。四川省交通行政審批業(yè)務(wù)處理系統(tǒng)是為該省各級交通審批人員提供在線審批工作的服務(wù)系統(tǒng),該系統(tǒng)提供在線審批、自動文件生成、證書打印管理等功能,它還可以在整個過程中與其他管理系統(tǒng)和數(shù)據(jù)庫共享經(jīng)批準的數(shù)據(jù)資源。新加坡在城市地區(qū)建立了ERP高速公路電子收費系統(tǒng),該系統(tǒng)取代了限制區(qū)域和高速公路的手動收費系統(tǒng),它已經(jīng)在一些擁堵的城市成功應(yīng)用,但也引發(fā)了人們對隱私和社會公平的擔憂。
域外方面,美國存在許多部分自動化行政的推行經(jīng)驗,如自動決策系統(tǒng)(ADS)管理著美國的社會福利項目,橫跨地方、州和聯(lián)邦政府,比如失業(yè)和殘疾福利領(lǐng)域。引發(fā)擔憂是ADS可能大幅提高效率,但它們也很有可能加劇基于階級和種族的現(xiàn)狀不平等;并且這些系統(tǒng)的使用不透明,往往使個人在作出決定后沒有辦法行使追索權(quán),個人甚至可能不知道ADS在決策過程中發(fā)揮了作用。對此,美國學者提出建議,聯(lián)邦政府應(yīng)立即采取行動,增加自動決策制度的透明度和責任追究力度;各機構(gòu)必須建立內(nèi)部技術(shù)能力以及以透明度、問責制和公平性為中心的數(shù)據(jù)文化;美國政府應(yīng)要求使用ADS的機構(gòu)采取通知和評論程序,向公眾披露有關(guān)這些系統(tǒng)的信息;立法機關(guān)通過全面立法,實施單一的國家標準,規(guī)范跨部門和用例使用ADS。在部分自動化行政流程中,一些程序性步驟由技術(shù)系統(tǒng)獨立接管,不能自動化的個別步驟由人工處理;人工生成的結(jié)果被轉(zhuǎn)移到技術(shù)系統(tǒng)進行進一步處理,并可能自動做出決策。人工智能系統(tǒng)沒有義務(wù)檢查人類執(zhí)行的部分步驟的結(jié)果,總體責任仍由人類承擔;部分自動化的類似變體是通過自動檢查法律相關(guān)事實來準備決策,從而由人類做出最終決策。
(三)無人工干預(yù)的完全自動化行政
完全自動行政中,由自動化系統(tǒng)單獨實施某類行政行為的全部環(huán)節(jié),不需要人工干預(yù)。從廣義上講,即使一項決定在形式上分配給了某個人,但如果此人在正式做出決定之前沒有主動審核處理結(jié)果,該決定仍被視為自動化處理。雖然完全自動化決策是通過技術(shù)手段獨立作出,但是公共機構(gòu)須確保決策監(jiān)督具有實質(zhì)性。在挪威,若能提前確定所有法律要求和條件,相關(guān)法律規(guī)則即可執(zhí)行,從而實現(xiàn)自動化執(zhí)行。挪威的法律規(guī)則可通過決策樹(一種層次結(jié)構(gòu)的預(yù)測分類模型)實現(xiàn),若人類對法定條件的評估無裁量空間,則決策可完全自動化。
近年來,中國深圳市通過政府大數(shù)據(jù)平臺建設(shè),實施了無需人為干預(yù)審批流程的自動審批,實現(xiàn)了秒報秒批的效果。為了實現(xiàn)這一目標,深圳市政府運用的技術(shù)有“人工智能”“大數(shù)據(jù)”“區(qū)塊鏈”等。深圳構(gòu)建了一個統(tǒng)一的全市政府信息資源分享平臺,集中了電子證書、公共信貸等數(shù)據(jù)資源;通過為所有類型的數(shù)據(jù)庫創(chuàng)建共享和重用渠道,該平臺促進跨區(qū)域的數(shù)據(jù)共享和互操作。與此同時,上海正在推進無需人工干預(yù)的自動許可證變更業(yè)務(wù),通過利用人工智能等技術(shù),建立一種新的模式,以實現(xiàn)審批自動化、多樣化渠道和便捷審批服務(wù);一旦在線申請成功,處理結(jié)果將在30秒內(nèi)可用,如果獲得批準,企業(yè)負責人可通過免費郵寄方式獲取許可證,或在現(xiàn)場等待領(lǐng)取證書。
三、人工智能時代自動化行政風險樣態(tài)
自動化輔助行政、部分自動化行政、完全自動化行政三個發(fā)展階段存在不同的風險樣態(tài),但是也存在共性之處,如對行政相對人程序權(quán)益的侵害,致使程序正義理念難以得到實現(xiàn)。本文無法窮盡自動化行政的全部風險類型,在提取司法裁判現(xiàn)狀和實踐案例的相關(guān)內(nèi)容后,將人工智能時代自動化行政風險樣態(tài)歸納為“權(quán)力黑箱、治理偏見、權(quán)力異化、權(quán)力惰性、私權(quán)侵害”五類范疇。
(一)“算法黑箱”形成“權(quán)力黑箱”
算法黑箱現(xiàn)象出現(xiàn)在數(shù)據(jù)輸入、計算過程和結(jié)果輸出三個階段。由于公共利益原因,知情同意規(guī)則被豁免,導(dǎo)致數(shù)據(jù)采集過程不透明;出于保護商業(yè)秘密的考慮,算法的決策流程也不對外公開;此外,數(shù)據(jù)分析結(jié)果與決策之間的轉(zhuǎn)換過程同樣未公開披露。自動化行政的算法缺乏透明度和可解釋性,在某些情況下可能會產(chǎn)生有爭議或不公平的決策,并且由于其不透明性,人們無法理解為何會出現(xiàn)這些結(jié)果。算法黑箱引發(fā)了不透明、陌生性、不可預(yù)測性和合理性等問題,對自動化決策構(gòu)成了挑戰(zhàn)。如新加坡的ERP高速公路電子收費系統(tǒng)和美國的自動決策系統(tǒng),因算法決策缺乏公開決策過程,行政相對人很難認同決策內(nèi)容,進而影響決策的執(zhí)行效果。
同時,算法黑箱使政府決策高度保密,決策動機、程序、結(jié)果的復(fù)雜性加劇了黑箱屬性,形成了“權(quán)力黑箱”。人工智能技術(shù)融入政府決策過程中,算法不可預(yù)測性、難以解釋等特征也傳導(dǎo)到了公共決策,由此也引發(fā)了“權(quán)力黑箱”;并為權(quán)利的實現(xiàn)制造了障礙,公民無法理解、參與和監(jiān)督政府權(quán)力的行使。在算法技術(shù)的運行過程中,存在黑箱風險,普通群眾可能難以接受算法技術(shù)與權(quán)力融合。“權(quán)力黑箱”反映了算法時代的悖論,即數(shù)據(jù)以驚人的速度傳播,但具有重大影響的信息只有內(nèi)部人員才能訪問。現(xiàn)有數(shù)據(jù)資源和算法技術(shù)是有限的,行政相對人基于算法黑箱推薦的服務(wù)內(nèi)容,必然存在相應(yīng)的算法風險或其他風險。如ChatGPT的大模型對公眾來說就是一個黑箱,很少有人能真正理解其背后的操作邏輯和知識架構(gòu),因為該模型利用強化學習與深度學習方法、學習模式和訓練模型,使ChatGPT背后的偏見問題更加隱蔽和難以檢測。
(二)“算法歧視”激化“治理偏見”
算法歧視來自于數(shù)據(jù),不公平的數(shù)據(jù)集是根源。倘若訓練數(shù)據(jù)有傾向性或固有偏見,潛在偏見可能會無意中嵌入到算法中,此時的決策會放大和強化已有的歧視和偏見。特別是在無人工干預(yù)的完全自動化行政中,行政相對人可能不知道自己正在遭受算法歧視,并且也難以知道自己是因哪些特征而被歧視。同時,政府治理過程中可能會延續(xù)陳規(guī)定型觀念和歧視性做法,影響個人和邊緣化群體,缺乏人工監(jiān)督和干預(yù)也將導(dǎo)致錯誤和意想不到的后果。算法歧視的事先預(yù)防和理論探索不容忽視,算法歧視的確定和問責也是良好治理的關(guān)鍵環(huán)節(jié),倘若缺乏問責機制,很難評估算法治理的有效性。
針對算法歧視,目前法律治理產(chǎn)生了兩方面的問題,一是治理目標的普遍性,即算法歧視監(jiān)管范圍太廣;二是治理手段的碎片化,即算法歧視監(jiān)管工具的混亂。算法歧視的內(nèi)涵中包括“算法偏見”,它對應(yīng)于語義表達中法律層面的歧視;同時包括“算法不平等”,它對應(yīng)于語義表達中道德維度的歧視。適用公法—私法規(guī)范所描述的“算法偏見”的情況主要在公法領(lǐng)域,同時部分涉及公民福祉的私法領(lǐng)域;“算法不平等”情景則是私法領(lǐng)域的其余部分。從人工系統(tǒng)向機器學習系統(tǒng)的轉(zhuǎn)變,提供了克服治理偏見的機會。但因自然語言的歧義性特點,有偏見的文化在不知不覺中不依附于語言的靜態(tài)符號,智能應(yīng)用產(chǎn)生的敘事可以再現(xiàn)新的偏見。生成式人工智能的獨立學習與決策能力,可能產(chǎn)生偏見、歧視和不公平的結(jié)果。如果算法系統(tǒng)不加思考地依賴于海量數(shù)據(jù),機器學習也會提高治理偏見的可能性。
(三)“技術(shù)權(quán)力”致使“權(quán)力異化”
技術(shù)權(quán)力是技術(shù)要素和政治結(jié)構(gòu)相互作用的產(chǎn)物,反映了技術(shù)的權(quán)力關(guān)系和政治效果,技術(shù)權(quán)力源于一國的國家創(chuàng)新能力,是國家權(quán)力的組成部分。它兼具軟權(quán)力和資源權(quán)力的特質(zhì),通過迎合偏好、撫慰情緒來吸引、引導(dǎo)他人做其想做的事,從而實現(xiàn)操控目的。與傳統(tǒng)的強制權(quán)力不同,它通過本能、無意識的方式,表現(xiàn)為一種基于理解的權(quán)力。人工智能算法的技術(shù)權(quán)力是看似客觀的權(quán)力譜系,由數(shù)據(jù)的設(shè)計、構(gòu)建、調(diào)節(jié)、操作和處理形成,但根據(jù)技術(shù)本身的效率原理和效果原理,具有明顯的技術(shù)理性特征。人工智能算法通過機器優(yōu)勢爭奪人類的決策權(quán),并基于優(yōu)勢構(gòu)建人類的認知和行為模型,極速擴展其影響,塑造社會運作。數(shù)據(jù)和算法正成為人工智能時代新的權(quán)力要素,任何擁有更完整、更高質(zhì)量數(shù)據(jù)并掌握更先進算法的人都可以擁有更多的權(quán)力。新的權(quán)力生產(chǎn)要素的出現(xiàn)預(yù)示著權(quán)力技術(shù)轉(zhuǎn)移機制的激活,技術(shù)優(yōu)勢將轉(zhuǎn)化為權(quán)力或權(quán)力優(yōu)勢,并且技術(shù)權(quán)力開始向治理權(quán)力流動。以強勢組織為中心的權(quán)力關(guān)系集中結(jié)構(gòu)將被分散,直到下一個強勢組織的出現(xiàn)。值得注意的是,新技術(shù)可能導(dǎo)致權(quán)力的意識形態(tài)風險指數(shù)逐漸放大,與公共權(quán)力合謀,產(chǎn)生權(quán)力異化狀態(tài)。
社會主體作為人工智能技術(shù)的研發(fā)者,往往也是人工智能技術(shù)的傳播主體,該主體比其他主體擁有更多關(guān)于人工智能技術(shù)的信息,這使他可能掩蓋主體身份并濫用社會權(quán)力。國家作為行使人工智能技術(shù)的另一主角,盡管也擁有大量的技術(shù)信息,但其時間滯后于社會主體,導(dǎo)致信息不對稱。如“何凱、上海市公安局黃浦分局交警支隊行政處罰”案中,司法機關(guān)為了避免對非法鳴笛的治理產(chǎn)生負面影響,認為不能從專業(yè)視角否認電子監(jiān)控設(shè)備的科學性,進而將設(shè)備科學性的審查權(quán)力交給了行政機關(guān)和社會主體。該觀點明確了法定審查標準,但也可能導(dǎo)致行政機關(guān)推諉諉責任、放棄技術(shù)權(quán)力,或者社會主體侵越權(quán)力的現(xiàn)象發(fā)生。作為社會治理中的關(guān)鍵作用,行政機關(guān)具有強大的自主性,應(yīng)當依法依規(guī)行使權(quán)力。
(四)“技術(shù)依賴”催化“權(quán)力惰性”
在自動化行政中,技術(shù)依賴主要體現(xiàn)為對高質(zhì)量數(shù)據(jù)以及自動化行政系統(tǒng)的訓練、測試和改進的依賴。權(quán)力和技術(shù)以依賴路徑的方式相互作用,其中權(quán)力結(jié)構(gòu)影響技術(shù)的采用和實施,而技術(shù)反過來又影響權(quán)力關(guān)系。技術(shù)進步推動的開創(chuàng)性變革會破壞現(xiàn)有的權(quán)力結(jié)構(gòu),并導(dǎo)致組織內(nèi)部的權(quán)力集中。隨著權(quán)力集中于中央機構(gòu),技術(shù)依賴可能會催化權(quán)力惰性。人們傾向于依賴人工智能,這在很大程度上是因為人們只知道人工智能可以做出比人類更好的決定,但不知道為什么人工智能可以做出這樣的決定;這使得人類無法從人工智能中學習,但更依賴人工智能,最終被掌握在人工智能的技術(shù)力量之下。自動化行政增強了行政任務(wù)的完成效率,但也可能致使執(zhí)法人員嚴重依賴算法。
人工智能時代的技術(shù)依賴,在某種意義上是國家對社會權(quán)力的依賴。社會權(quán)力及其運行狀態(tài)是技術(shù)依賴產(chǎn)生的關(guān)鍵變量,技術(shù)力量社會化失控,集中在兩種相互結(jié)合的過程形式中,即權(quán)力的技術(shù)邏輯和技術(shù)的權(quán)力慣性。技術(shù)權(quán)力的慣性體現(xiàn)為由權(quán)力驅(qū)動的技術(shù)理性逐漸支配甚至取代人類理性的基本邏輯。隨著人工智能等技術(shù)的不斷發(fā)展,一方面,完成了技術(shù)理性向意識形態(tài)和絕對正確性的蛻變;另一方面,也實現(xiàn)了人類理性向技術(shù)理性的轉(zhuǎn)變。值得注意的是,技術(shù)依賴可能導(dǎo)致自動化系統(tǒng)缺乏可控制性和可預(yù)見性,人類難以保持對具有自主權(quán)的編程機器的控制。同時,限制了行政機關(guān)在控制力、安全性、透明度、錯誤識別及系統(tǒng)操作理解方面的能力。
(五)“公權(quán)擴張”引發(fā)“私權(quán)侵害”
自動化行政可能通過操縱或?qū)彶樾畔碛绊懷哉撟杂珊蛡€人信息權(quán)益;通過傳播虛假信息或宣傳,影響公眾輿論并限制獲得不同觀點的機會。個人數(shù)據(jù)的商品化容易威脅到隱私權(quán),人工智能對數(shù)據(jù)的過度取用引發(fā)了嚴重的隱私擔憂。自動化行政也加劇了透明度和問責制的缺陷,因為使用算法進行決策可能缺乏透明度,并且很難追究平臺對其行為的責任;擴大平臺權(quán)限以監(jiān)管在線言論時,對平臺本身的監(jiān)督和檢查有限,可能會影響到用戶的私權(quán)。
人工智能時代的私權(quán)侵害不同于以往的侵權(quán)形態(tài)。首先,侵權(quán)范圍擴大,侵權(quán)損害后果更加嚴重。佛山廣臺高速的“天價罰單”案件顯示,行政主體反復(fù)運用電子監(jiān)控設(shè)備聚合個人違法信息,可能因違反法定程序要求,嚴重侵害個人的合法權(quán)益。而隨著人工智能的運用變多,侵犯不特定群體權(quán)益的可能性也會增加。其次,產(chǎn)生了新的侵權(quán)方式,人工智能的自學習和自決策能力引起了人們對潛在侵權(quán)行為的擔憂,如自學習能力的發(fā)展可能導(dǎo)致人工智能在沒有人為意圖或不知情的情況下侵犯知識產(chǎn)權(quán)。并且人工智能支持更復(fù)雜的訪問和利用個人信息的方法,這使得發(fā)現(xiàn)和防止侵權(quán)行為變得更加困難。最后,追究侵權(quán)者的責任更加困難。傳統(tǒng)侵權(quán)案件中,責任一般可以被追溯到具體的個人或?qū)嶓w。但在人工智能系統(tǒng)中,責任可能分散到多個層面,包括開發(fā)者、數(shù)據(jù)提供者、訓練數(shù)據(jù)、算法本身等。如數(shù)據(jù)經(jīng)紀人和數(shù)據(jù)生產(chǎn)者等各種實體參與數(shù)據(jù)產(chǎn)業(yè)鏈,形成了復(fù)雜的責任網(wǎng)絡(luò),使得追究侵犯隱私行為的責任變得困難。并且人工智能系統(tǒng)的工作原理十分復(fù)雜,有時甚至開發(fā)者也無法準確解釋其內(nèi)部決策過程,更難以區(qū)分清楚不同主體的責任大小問題。同時,隨著生成式人工智能的興起,法律和監(jiān)管機構(gòu)難以及時跟上技術(shù)變革的步伐,這可能導(dǎo)致侵害行為的監(jiān)管和問責滯后于技術(shù)應(yīng)用。
四、人工智能時代自動化行政的規(guī)制路徑
2023年8月,國務(wù)院辦公室發(fā)布了政府服務(wù)效率標準化機制的意見,匯集了57個地方部門提高政府服務(wù)效率的典型實例,其中,泉州數(shù)字政府的實踐涉及了人民的身邊事,促進了“無處不在”的政府服務(wù),是全國推廣的案例之一。通過實施公共服務(wù)標準化,泉州市某中心將全部政務(wù)流程納入一體化體系當中,此經(jīng)驗做法已被評為提升政務(wù)服務(wù)效能的典型案例。該機構(gòu)的經(jīng)驗具有一定的啟發(fā)意義,可以讓其他行政機構(gòu)在探索自動化行政路徑時找到一些共同的屬性。因此,本文選取泉州市某中心運用自動化行政的現(xiàn)實樣貌,作為探索自動化行政的樣本。泉州市某中心的行政活動具有數(shù)字化、技術(shù)性、人工智能與人工審核等特征,通過關(guān)注該中心自動化行政的運行狀態(tài),能探討理想運行模式。同時深入探索行政活動背后的理論邏輯,能揭示新興信息技術(shù)在行政活動領(lǐng)域的應(yīng)用樣態(tài)。下文將結(jié)合泉州市某中心辦事群眾、窗口工作人員、進駐領(lǐng)導(dǎo)的訪談記錄,提出規(guī)制路徑。
(一)明確算法系統(tǒng)的可解釋性規(guī)則
人工智能時代,算法系統(tǒng)影響下的自動化行政容易產(chǎn)生黑箱機制,該機制致使算法結(jié)構(gòu)及其決策過程的不透明度,并形成黑箱力量。黑箱力量通過限制透明度和對決策方式的理解來提高算法管理的有效性,個人在算法系統(tǒng)中的有限代理權(quán)可能進一步增強黑箱力量,因為他們對算法的行為幾乎沒有控制權(quán)或洞察力,這種缺乏透明度的狀況引發(fā)了人們對問責制以及算法決策中可能出現(xiàn)偏見或歧視的擔憂。泉州市某中心的受訪員工指出,“自動化行政中的黑箱力量可能導(dǎo)致機構(gòu)內(nèi)部缺乏對決策過程的理解,算法結(jié)構(gòu)可解釋性的缺乏還會限制機關(guān)工作人員的能動性,并降低工作人員影響決策的能力”。缺乏可解釋性也使算法系統(tǒng)本身產(chǎn)生了一種力量感,因為它們會監(jiān)測自己的行為,并以預(yù)見的方式順從地行事。具體應(yīng)對措施包括:針對不同算法黑箱模型,滿足算法系統(tǒng)的可解釋性需求;解釋標準應(yīng)側(cè)重于理解和信任等心理因素;測試提供解釋的各種方法,并根據(jù)現(xiàn)有問題制定有關(guān)可解釋性的法律規(guī)則,以應(yīng)對公共活動中自動化決策的挑戰(zhàn)。如英國信息專員辦公室(ICO)發(fā)布了人工智能決策解釋指南,根據(jù)算法本身是否為黑箱算法,并考慮到其無法解釋和神秘的性質(zhì),對算法進行分類;當存在其他非黑箱算法時,優(yōu)先適用這些算法,如線性回歸、決策樹、k近鄰、廣義加性模型等。此外,應(yīng)當依法核實政府及其部門的權(quán)力和責任清單,避免“權(quán)力黑箱”出現(xiàn),消除腐敗空間,保證權(quán)力公開透明、有序運行。
(二)凝聚利益相關(guān)者的治理共識
法律規(guī)則作為約束措施,可以對算法決策進行優(yōu)化。實務(wù)中產(chǎn)生的問題與歷史上的制度歧視類似,能通過凝聚共識方式來解決。算法歧視不是自動化決策問責制的必備因素,不同群體充分地表達利益訴求能解決治理偏見問題。運用法律規(guī)則解決算法歧視和治理偏見過程中,需要注意利益相關(guān)者的多元性。技術(shù)系統(tǒng)涉及多個利益相關(guān)者,包括編譯算法程序代碼的開發(fā)參與者、為算法操作提供必要數(shù)據(jù)的供應(yīng)參與者、使用數(shù)據(jù)執(zhí)行算法模型的培訓參與者、制造人工智能系統(tǒng)的生產(chǎn)參與者和部署可操作人工智能系統(tǒng)應(yīng)用的參與者,這些利益相關(guān)者的行為可能導(dǎo)致算法侵權(quán);如算法程序代碼開發(fā)主體的疏忽,導(dǎo)致算法程序操作中的錯誤,或者數(shù)據(jù)提供主體所提供數(shù)據(jù)中的偏見,導(dǎo)致算法決策結(jié)果中的歧視性影響等。泉州市某中心受訪負責人坦言,“就中立性而言,技術(shù)本身沒有價值,但算法設(shè)計者有可能帶來價值傾向;自動化行政過程中,可能缺乏陳述申辯、救濟的環(huán)節(jié),算法歧視、算法偏見的現(xiàn)象層出不窮”。具體的對策是:首先,當利益相關(guān)者借助算法力量形成自己的意見時,行政機關(guān)應(yīng)當注重推動共治的形成。其次,算法作為爭搶權(quán)力的關(guān)鍵點,本身包含著一種價值判斷,應(yīng)當注意避免算法出現(xiàn)歧視或者不公的現(xiàn)象。最后,為了解決自動化行政系統(tǒng)的主觀偏差,應(yīng)當使用第三方評估監(jiān)控機制來消除治理偏見的風險。
(三)承認技術(shù)力量持有者的權(quán)力
技術(shù)和權(quán)力這兩類要素并不相互獨立,技術(shù)權(quán)力是基于基礎(chǔ)技術(shù)占據(jù)技術(shù)優(yōu)勢,并對其他主體施加控制力或約束力。技術(shù)自主性深刻地改變了傳統(tǒng)的權(quán)力運作方式和行動機制,統(tǒng)治通過技術(shù)擴大了影響力,并為權(quán)力提供了足夠的合法性。人工智能的技術(shù)力量主要由傳統(tǒng)的公共權(quán)力和社會權(quán)力驅(qū)動,即通過人工智能技術(shù)掌握控制他人的權(quán)力。泉州市某中心受訪員工也提出了疑慮,“人工智能技術(shù)力量的持有者有可能濫用權(quán)力,利用人工智能的黑箱屬性作為盾牌,將個人價值判斷納入自動化決策過程,侵犯普通群眾的權(quán)利,逃避法律監(jiān)管”。技術(shù)權(quán)力異化為治理權(quán)力過程中,產(chǎn)生了兩難選擇。一方面,作為社會權(quán)力持有者(如人工智能的設(shè)計師、制造商)有能力超越國家權(quán)力,處置他人的合法權(quán)利,這是國家權(quán)力無法接受的;另一方面,國家權(quán)力的過度參與可能會阻礙人工智能的發(fā)展,這也是社會權(quán)力持有者無法接受的。具體應(yīng)對措施包括:首先,承認社會技術(shù)力量的存在。人工智能算法有自己的工作邏輯,它通過高技術(shù)性、復(fù)雜性和不透明性隱藏了自己的強制性特征,也為算法技術(shù)力量的隱含功能提供了條件。其次,有條件地承認社會權(quán)力持有者的技術(shù)權(quán)力。人工智能算法的工作機制產(chǎn)生了社會的隱性技術(shù)力量,應(yīng)當通過重構(gòu)社會權(quán)力,將符合國家價值理念的內(nèi)容擴展到現(xiàn)實空間。最后,平衡國家權(quán)力和社會權(quán)力的關(guān)系。自主技術(shù)能夠行使國家和社會賦予的部分權(quán)力,特別是通過承接從國家(政府)轉(zhuǎn)移而來的權(quán)力,將其施加于權(quán)力對象。人工智能技術(shù)滲透到權(quán)力運行的過程中,應(yīng)當平衡國家權(quán)力與社會權(quán)力之間的關(guān)系。
(四)確立以人為本的理念
行政組織對人工智能和自動化系統(tǒng)的使用表明,辦事人員越來越依賴技術(shù)來實現(xiàn)各種目的,包括公共服務(wù)的提供、分析、監(jiān)測和監(jiān)管研究。泉州市某中心受訪負責人指出,“自動化行政系統(tǒng)提供了可以幫助甚至替代人類行為的新功能,可能會導(dǎo)致相關(guān)部門工作人員在決策過程中產(chǎn)生惰性思維”。人工智能在公共領(lǐng)域的運用可能會出現(xiàn)錯誤或不準確,對人工智能的日益依賴會導(dǎo)致決策內(nèi)容與其所承擔的價值觀(如公開、透明、解釋、監(jiān)督)發(fā)生沖突。而將以人為本理念整合到自動化行政實施中,能解決技術(shù)依賴和價值觀偏差問題。具體措施包括:首先,由數(shù)據(jù)科學家、人工智能專家、領(lǐng)域?qū)<液推渌嫦嚓P(guān)者參與協(xié)作開發(fā),讓普通群眾理解數(shù)據(jù),實現(xiàn)適當?shù)墓δ芎陀行гu估自動化系統(tǒng)。其次,技術(shù)對公民權(quán)利和公共利益帶來了重大影響,應(yīng)當確保人工智能仍然是輔助工具,發(fā)揮人類的主體作用,不扭曲立法程序或威脅民主。再次,現(xiàn)實的復(fù)雜性以及對更精確和技術(shù)性立法的需求,為完善人工智能的適用創(chuàng)造了機遇,但必須謹慎行事,以保持技術(shù)和民主原則、權(quán)利保障之間的平衡。最后,盡管機器學習系統(tǒng)可能比傳統(tǒng)的統(tǒng)計技術(shù)更具自主性,但它們?nèi)匀恍枰祟悇?chuàng)造者和監(jiān)督者指定目標、命令和后果。因機器學習算法缺乏謀求私利的意圖,人類應(yīng)當保留對算法規(guī)格及其輸出轉(zhuǎn)化的監(jiān)管行動的最終控制權(quán),并由授權(quán)的政府官員設(shè)置目標,以此有效地避免歧視或者偏見。
(五)“落實最小損害原則”
人工智能在社會中的日益普及,引發(fā)了人們對人工智能系統(tǒng)放大現(xiàn)有偏見和不平等的擔憂。泉州市某中心受訪辦事群眾認為,“隨著自動化行政系統(tǒng)收集、處理和分析大量個人信息,個人越來越容易受到數(shù)據(jù)利用和監(jiān)控,職權(quán)部門需要加強對個人數(shù)據(jù)和隱私權(quán)的保護”。人工智能時代下,行政機關(guān)運用自動化行政手段不斷擴展公權(quán)力,會引發(fā)私權(quán)利侵害問題。如稅務(wù)部門通過自動化系統(tǒng)訪問到大量數(shù)據(jù),可能對私權(quán)構(gòu)成嚴重威脅;尤其是在收集數(shù)據(jù)環(huán)節(jié),未經(jīng)授權(quán)的訪問或濫用私人數(shù)據(jù)會引發(fā)嚴重的侵權(quán)現(xiàn)象。具體措施包括:首先,行政主體應(yīng)當關(guān)注私權(quán)保護問題,特別注意有偏見的歷史數(shù)據(jù)的運用可能使歧視永久化,并導(dǎo)致行政給付、行政處罰等領(lǐng)域產(chǎn)生不公平?jīng)Q策。其次,當自動化行政不可避免地侵入私權(quán)領(lǐng)域時,應(yīng)當區(qū)分對不同權(quán)利的限制程度。有些權(quán)利,如生命權(quán)、不受酷刑的權(quán)利、不被奴役的權(quán)利是絕對的;而有些權(quán)利則不是,例如,在公共緊急狀態(tài)下,國家有權(quán)克減大多數(shù)人權(quán);其他權(quán)利,如隱私權(quán)和言論自由,則受到限制,但是對這些權(quán)利的任何限制都應(yīng)是例外,并應(yīng)基于合法目的。最后,必須強調(diào)的是,任何權(quán)利的限制都必須符合法律,并且是必要的和相稱的,符合最小損害原則。
結(jié)語
依托算法和算力的快速發(fā)展,人工智能時代的自動化行政為提高行政效率、減少主觀偏差提供了技術(shù)可能。但伴隨著自動化行政由強人工干預(yù)邁向無人工干預(yù),更深層次的治理風險也隨之浮現(xiàn)。構(gòu)建與各類自動化行政相適應(yīng)的有效規(guī)制框架,是行政機關(guān)運用人工智能技術(shù)履行公共職責的關(guān)鍵所在。本研究通過實證分析,嘗試對自動化行政的規(guī)制路徑作出初步探索。然而,受限于實際案例與訪談樣本的不足,當前研究尚未能完全涵蓋人工智能時代下自動化行政的全部規(guī)制路徑。自動化行政融合了法律、計算機科學與管理學等多學科知識,適宜采用跨學科研究方法。未來研究將繼續(xù)依托這一方法,深入探尋其規(guī)制路徑。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.