<blockquote id="ue9b1"></blockquote>
    
    

    <style id="ue9b1"></style>
      <sub id="ue9b1"><p id="ue9b1"><form id="ue9b1"></form></p></sub>

      <strong id="ue9b1"><button id="ue9b1"><mark id="ue9b1"></mark></button></strong>
      成年午夜性影院,下面一进一出好爽视频,国产无遮挡又黄又爽又色,国产精品爽爽v在线观看无码,国产人妻久久精品一区二区三区,国产伦精品一区二区三区免费迷,国产欧美精品一区二区三区,日韩精品一区二区三区视频
      網易首頁 > 網易號 > 正文 申請入駐

      袁康:人工智能統一立法的論爭與選擇 | 比較法研究202505

      0
      分享至

      【作者】袁康(武漢大學法學院教授,法學博士)

      【來源】北大法寶法學期刊庫《比較法研究》2025年第5期。因篇幅較長,已略去原文注釋。


      內容提要:面對人工智能立法的時代需求,推進我國人工智能立法已成共識,但立法模式的選擇仍面臨著“統分之爭”與“急緩之辯”的激烈論爭。擔憂統一立法可能導致規制僵化、法律滯后、創新抑制、規則場景錯配的疑慮,是對統一立法任務定位與制度品格的誤解。而統一立法所具備的體系協調、價值平衡、規則奠基與實踐引導等多重制度功能亦被忽視。制定一部統一且通用的人工智能法,發揮其在人工智能法律體系中的基礎性、框架性和統領性地位,避免碎片化的分散立法造成規則沖突,對實現人工智能的良法善治具有重要意義。我國應繼續穩步推動人工智能統一立法進程,堅持基礎性立法定位,平衡發展導向與底線思維,確保制度規則的敏捷與彈性,發揮立法過程的治理效果,探索人工智能法治的中國方案。

      關鍵詞:人工智能;立法模式;統一立法;立法過程

      目次

      一、人工智能統一立法的分歧與實踐

      二、人工智能統一立法的誤解澄清

      三、人工智能統一立法的制度功能

      四、我國人工智能統一立法的路徑選擇

      五、結語

      人工智能技術迅猛發展帶來的社會變革與風險挑戰,激起了法律人探索制度因應與規制方案的雄心。各國陸續針對自動化決策、深度偽造、自動駕駛等人工智能應用制定相關規則,掀起了人工智能立法的浪潮。歐盟于2021年提出的《人工智能法》開啟了人工智能統一立法的序幕。在中國,國務院辦公廳2023年和2024年的立法工作計劃中兩度提出預備將“人工智能法草案”提請全國人大常委會審議,學術界也積極開展研究論證,形成了《人工智能示范法》和《人工智能法(學者建議稿)》文本,統一制定專門的人工智能法似乎已箭在弦上。然而,隨著人工智能成為大國競爭的關鍵場域,產業界對立法束縛人工智能發展的擔憂日益增長,國務院2025年度立法工作計劃中“制定人工智能法草案”的表述被“推進人工智能健康發展立法工作”取代,這一變化被解讀為中國人工智能法立法進程的終止,也有學者旗幟鮮明地提出“人工智能統一立法宜緩行”。人工智能統一立法的遇冷,反映了立法機關在面對人工智能這一新興復雜領域時,對立法時機、立法模式、立法重點等核心問題的審慎權衡、政策考量的動態演進,以及在凝聚社會共識過程中的反復斟酌。在此背景下,中國的人工智能立法究竟是應當“改弦更張”,放棄追求統一立法,轉而采取更為靈活的分散式、場景化規制路徑,還是應當“知難而進”,在借鑒國際經驗和總結國內實踐的基礎上,繼續探索和推進統一立法?這一選擇不僅是回應理論界焦點爭議的現實需求,更是構建人工智能法治中國方案的時代命題。

      人工智能統一立法的分歧與實踐

      通過人工智能立法防范風險和促進發展已成共識,然而是否應當制定一部人工智能統一立法,以及何時制定統一立法,仍然存在較大的分歧,各國立法實踐對此也持觀望態度。所謂人工智能統一立法,是指通過制定一部基礎性、綜合性、體系化的“人工智能法”統籌人工智能治理的原則、目標和規則的立法模式。此模式有助于構建系統全面的人工智能法律框架,但也面臨能否適應人工智能的復雜場景與快速迭代、能否平衡創新發展與風險防范的質疑。

      (一)人工智能立法的“統分之爭”

      是否需要且能夠以一部基礎性法律統籌人工智能的法律治理,是人工智能統一立法爭論的關鍵焦點,也是立法模式選擇的根本問題。當前理論界圍繞該問題,形成了人工智能立法模式的“統分之爭”,即采取綜合性的統一立法,還是針對不同領域、不同場景進行分散化或場景化立法。

      主張統一立法的觀點認可基礎性法律能夠對人工智能進行統籌規制,認為應當制定一部人工智能法以確保法律制度的體系化。持此主張者認為,人工智能技術具有跨領域、系統性的影響,其所引發的倫理、法律和社會問題往往超越了單一部門法的調整范圍。一部統一的人工智能法能夠在宏觀層面確立人工智能治理的基本原則、核心概念、價值導向和制度框架,有助于協調各部門法之間的潛在沖突,保障法律體系的內在統一性與完整性,提升整體治理效能。我國當前人工智能立法呈現出非體系化特征,相關規定散見于不同層級和效力的法律文件中,存在主體交叉、位階較低、碎片化等問題。因此,制定一部具有總則意義的人工智能法,對于解決我國人工智能立法碎片式、迭代式等非體系化問題,串聯與調適現有法律規范,具有現實的必要性。一部兼具框架性與包容性的人工智能法,是人工智能立法體系邏輯一致、價值融貫和整體關聯的基本保障。有學者提出以“兩步走”策略編纂人工智能法典,即先制定人工智能法總則,抽象提煉目標價值、基本原則、調整對象、治理理念等基本性問題,再就支持促進、安全監管、權利義務、法律責任等編章,從而形成一部完整的人工智能法典。

      主張分散立法的觀點則否認人工智能統一立法的必要性與可行性,傾向于在現有法律體系內,通過修訂、解釋或針對特定領域、特定問題制定專門性的法規或規章來應對人工智能的挑戰。持此主張者認為,人工智能技術正處于高速發展和持續演進之中,其應用場景日益多樣化和復雜化。一部統一的、試圖包羅萬象的法律,可能難以適應這種高度的不確定性和復雜性而面臨失效風險。有學者認為人工智能立法通常橫跨不同法律部門,需要根據不同問題分別設計相應的法律制度和實施機制,立法應堅持靈活的“小步快跑”,避免一刀切立法造成負面影響。也有學者主張從問題意識出發的適應性立法和反饋性修法的動態立法模式,以“無必要不立法”原則下傳統部門法的立改廢釋實現規制目標。 還有學者認為人工智能立法應堅持軟法先行,采用更為靈活的技術標準或倫理指南形成更加柔性的規制模式,在當前階段可能更為適宜。

      “統分之爭”的背后,實際上反映了對立法效率、適應性、體系性、創新激勵與風險規制等多重價值目標的不同權衡,以及對立法在社會治理中角色的不同理解。統一立法追求體系周延與邏輯自洽,力圖為人工智能發展提供一個穩定和可預期的宏觀法治框架。而分散立法則更強調對具體問題的快速響應和對技術創新的包容審慎。如何在兩者之間尋求平衡,是中國人工智能立法面臨的關鍵抉擇。而事實上,持統一立法立場者也并非未考慮人工智能立法中的多元目標沖突與體系復雜性。有學者主張突破風險管理的單一路徑,融合人工智能活動的科學性和工具性,按照科技法與應用法的復合屬性定位開展統一立法。也有學者主張統分結合式的立法模式,即由全國人大常委會以綜合性法律為人工智能技術發展的基本原則、一般規則、管理體制、運行機制、促進發展的綜合措施、法律責任等進行統一立法,同時根據人工智能不同應用場景和生命周期進行分散立法。可見,統一立法與分散立法并非截然對立,而是承擔著不同而互補的功能。統一立法在于以基本原則和基礎性制度為人工智能分別立法提供統一思想、制度框架和普遍約束,而分散立法則作為基礎性法律的延伸和細化,能夠滿足特定場景和應用的特殊需求。

      (二)統一立法的“急緩之辯”

      即便在認同統一立法必要性的學者中,對于立法時機亦存在“急緩之辯”的分歧。立法時機的“急緩之辯”,即是否應立即著手制定統一的人工智能法,還是應采取更為審慎和漸進的策略,待技術發展和風險認知更為成熟后再行立法。

      主張抓緊制定統一立法的觀點主要基于兩方面理由。一是回應人工智能迅速發展的現實需求。在人工智能技術快速迭代的背景下,需要通過立法將促進產業發展和風險防范納入法治化軌道,從而避免人工智能行業的無序發展。龍衛球認為亟須以人工智能科技作為特殊規范對象制定專門的人工智能法以適應日益迫切的法律需求。宋華琳亦認為亟待以統一立法促進人工智能產業發展,防范人工智能安全風險,并厘定人工智能治理的基本原則與基本要求,明確不同主體的權利義務。二是搶占人工智能全球治理話語權的雄心。在世界主要經濟體陸續出臺人工智能法以搶占人工智能治理制高點的形勢下,中國作為人工智能發展大國,亟需通過國內立法明確自身立場,積極參與并影響全球人工智能治理規則的構建,爭取國際話語權。在某種意義上,貢獻人工智能法治的中國智慧與中國方案,參與和引領人工智能全球治理,成為我國人工智能統一立法的重要目標。

      主張暫不急于統一立法觀點的學者則是在認同最終需要人工智能統一立法的基礎上,主張先以分散式、場景化立法回應人工智能發展的法治需求,待時機成熟時制定綜合性人工智能法。持此觀點者主要基于以下三個理由:一是當前人工智能技術發展與應用尚存在諸多不確定性,貿然統一立法缺乏認知基礎。例如,彭誠信認為人工智能技術尚處在不斷進步的階段,且人們對人工智能的認識仍然有限,尚無條件進行統一立法,權宜之計是采用分別立法的路徑,先就突出問題進行立法規制,但仍要為未來人工智能統一立法作準備。二是人工智能風險的表征與機理存在多樣性,目前尚無統一風險規制的規則基礎。例如,丁曉東認為如果對人工智能進行統一化監管,法律將變得高度不確定且難以操作,因而當前宜堅持場景化規制進路,待時機成熟時再制定綜合性人工智能法。三是人工智能統一立法的時機應以立法共識基礎為前提,綜合性人工智能立法宜擇機出臺。

      “急緩之辯”的核心爭議在于當前人工智能統一立法的時機是否成熟。所謂立法的成熟時機,既要求立法不脫離社會需要而滯后,也不脫離社會實際而超前。從回應人工智能發展的法治需求,加快構建人工智能規制的治理框架的立場出發,推動人工智能立法確屬時代所趨。然而,從務實的角度看,人工智能統一立法需要考慮社會共識、治理方案、立法技術等諸多因素。不同于一般意義上的社會規范,法律有著穩定性、明確性等特有品格。制定一部綜合性的人工智能法必須首先明確其規范對象和規范策略,這建立在人工智能技術及其應用已相對清晰,且平衡安全與發展的規制方案基本明確的基礎之上。因此,立法進程的推動并非僅系于立法者或研究者的主觀意愿,也必須考慮客觀的認知基礎、規則基礎以及共識基礎。在這個層面上,“以更加審慎和漸進的態度和方法推動統一立法進程”似乎是更為穩妥的方案。然而,是等待立法基礎齊備后再推動統一立法,還是在統一立法過程中積累基礎,仍是有待進一步討論的話題。

      (三)人工智能立法模式的比較考察

      人工智能技術迅猛發展的產業需求和風險隱憂激發了全球范圍的規制沖動。歐盟延續其在數據治理和數字市場領域的立法傳統,試圖通過制定嚴格且統一的人工智能法將“布魯塞爾效應”拓展至人工智能治理領域。美國則在重商主義傳統的驅使下,傾向于有條件地放松人工智能監管并形成碎片化的立法體系。歐美在人工智能立法模式層面的迥異選擇也影響了其他國家的人工智能立法。

      作為世界首部人工智能專門立法,歐盟《人工智能法》被視為開人工智能統一立法之先河,系統地構建了一套全面的、基于風險的監管模式,意在構建統一的內部市場規則、保障基本權利并促進人工智能的創新與可信。該法提出基于風險的人工智能監管框架,將人工智能系統類型劃為不可接受風險、高風險、有限風險和最小風險四類并科以對應等級的合規義務。該法整合原有分散的規范與監管資源,建立協調一致的監管機制,以減少成員國法律碎片化問題。此外,為支持人工智能創新,該法還設專章規定了人工智能監管沙盒機制以及小微企業合規義務的減免。

      美國的聯邦體制與兩黨政治導致了聯邦和各州立法機關在應對科技行業游說時的“割裂”,進而形成了人工智能碎片化立法的分散模式。在聯邦層面,美國并未嘗試制定統一的人工智能法,而是針對特定場景下的深度偽造、算法歧視等不當應用制定相應的專門規則。例如限制人工智能生成內容的《刪除法案》,以及一些議員提出的尚未正式成為聯邦法律的提案,如《算法問責法案》《過濾氣泡透明度法案》等。拜登政府曾嘗試以《確保美國AI安全、可靠、可信的行政命令》對人工智能進行規制,后被特朗普政府撤銷。這反映了聯邦層面在硅谷強大的游說力量下對科技行業“輕觸式”監管思路的延續。反觀州法層面,美國各州積極擴張人工智能監管立法權,紛紛出臺相應法律。例如,猶他州《人工智能政策法案》和科羅拉多州《人工智能消費者保護法》試圖制定相對全面的人工智能法律。加利福尼亞州也通過了一系列法案,包括要求醫療機構披露使用生成式人工智能向患者提供信息的情況,以及要求人工智能開發者公開模型訓練數據來源等。據美國全國州議會聯合會(NCSL)統計,僅2024年就至少有45個州提出了人工智能相關法案。這種分散式、碎片化的立法模式,凸顯了美國人工智能治理中“央地沖突”,而碎片化的多元規制也推高了企業合規成本。特朗普政府曾嘗試在《大而美法案》中嵌入一項阻止各州對人工智能進行任何形式監管的十年禁令,但參議院卻以99:1的壓倒性優勢通過了在法案中刪除該禁令的決議。據此可判斷在相當時期內,美國難以通過聯邦統一立法的方式整合各州的分散立法。

      在歐美立法模式選擇的影響下,各國人工智能立法也可被大致分為分散式和統一式兩種模式,其具體實踐也因本國國情而各具特點。或受美國影響,英國立法機關經廣泛討論最終得出目前并不急于推進人工智能統一立法的結論。印度與英國秉持大致相同的思路,認為應更多發揮領域法律的作用。在統一立法的陣營一側,韓國于2025年出臺《關于發展人工智能及建立信任基礎等基本法案》,在鼓勵人工智能技術的研發和應用的同時也強調要遵守倫理準則,保護個人隱私和數據安全。日本也制定了《人工智能相關技術研究開發及應用推進法》,規定了日本政府有責任全面且系統地制定和實施推動人工智能研發和應用的措施,并應對人工智能侵權行為進行調查并追究責任。2025年9月,意大利正式批準《人工智能法》,完成了歐盟立法的本土化,一方面通過明確主管機構和戰略更新機制強化風險防控,另一方面通過設立10億歐元的投資計劃推動創新生態。此外,加拿大、哥斯達尼加、智利等國都正在起草人工智能法相關草案。

      值得注意的是,即便在探索統一立法模式的國家,其立法重心和規制思路也呈現一定的分化。歐盟的監管型統一立法模式雖體系性強,規則相對明確,但其也面臨諸多批評。例如,規則可能過于僵化,合規成本較高,中小企業的創新活力可能會受到抑制,風險的分類和界定標準存在一定的主觀性,且靜態的風險清單難以完全適應技術的動態發展和“涌現”特性。對此,意大利在本土立法中通過設立投資計劃實現“管制”與“賦能”的兼顧。不同于歐盟的強監管立場,包括日韓在內的諸國統一立法都具有較為明顯的創新促進取向。這些國家雖也尋求建立統一的法律框架,但更側重于通過立法促進本國人工智能產業發展、技術創新和廣泛應用,同時兼顧倫理規范和風險防范,呈現出“發展與規范并重”甚至”以促進為主,規范為輔”的特點。其優點在于能夠根據本國國情和發展階段,有針對性地推動人工智能產業的快速發展,提升國家競爭力,然而也面臨著如何有效平衡發展與監管的關系,避免出現“重發展、輕監管”導致的風險失控,或因監管不足而引發倫理和社會問題的挑戰。

      人工智能統一立法的誤解澄清

      關于人工智能統一立法的爭論焦點體現在四個方面:統一立法的任務定位、技術演進帶來的不確定性挑戰、過度監管抑制創新的擔憂以及規則與場景錯配的適用難題。不宜統一立法或暫不急于統一立法的觀點,在某種程度上是基于對上述問題仍持疑慮。澄清這些誤解與分歧,對于我國人工智能立法的模式探索殊為必要。

      (一)統一立法是要制定一部人工智能法典嗎?

      對人工智能統一立法的一個常見誤解是將其等同于制定一部包羅萬象、事無巨細的“人工智能法典”。這種理解往往導致對統一立法可行性的悲觀預期,即在技術日新月異、應用場景紛繁復雜的人工智能領域,試圖通過一部法律來規制所有問題是不切實際的。然而,人工智能統一立法并非追求法典式的“大而全”,而是要構建一部具有基礎性、統領性和框架性的綜合立法。這一定位意味著,人工智能統一立法的目標不在于預設所有具體問題的答案,而在于為人工智能治理體系搭建制度框架。它需要在法律層面,對以人為本、安全可控、公平正義、創新發展等核心價值理念進行確認,并將其轉化為具有法律約束力的基本原則,如風險預防原則、透明度與可解釋性原則、可問責原則、促進創新原則等。這些高度凝練的“元規則”,能夠超越具體的技術形態和應用場景,為未來所有與人工智能相關的立法、司法和行政活動提供根本的價值指引和解釋依據,確保人工智能的發展始終位于正確軌道。

      統一立法的主要目標是對人工智能法律關系中的共性問題作出基礎性規定,而非填充所有制度細節。這包括:第一,界定統一的人工智能法律概念體系,例如對“人工智能系統”“算法”“模型”“提供者”“部署者”等關鍵術語進行界定,以避免在不同法規和實踐中產生歧義。第二,搭建風險治理的基本框架,例如確立風險分類分級的基本方法論,明確高風險人工智能的判定標準和領域清單的動態調整機制,并規定不同風險等級所應遵循的差異化監管路徑。第三,設定各方主體的基本權利、義務與責任框架,例如明確開發者、提供者、部署者和使用者在數據治理、算法透明、安全保障、風險告知等方面的基礎性義務,以及在損害發生時責任分配的基本原則,為具體的責任認定規則提供依據。第四,構建人工智能治理體系,明確國家層面統籌協調機構與各相關監管部門的職責分工,建立跨部門的協同治理機制。

      更為關鍵的是,統一的人工智能法并非要取代或排斥其他規范,而是扮演“上位法”或“基本法”的角色,引領和協調一個多層次、結構化的法律規范體系,它的生命力恰恰體現在其具有開放性和統合性。一方面,它要與現行法律規范做好銜接,協調與我國民法典、網絡安全法、數據安全法、個人信息保護法等法律的關系,解決因人工智能應用產生的法律適用沖突或空白。另一方面,它必須為下位法和配套規范的制定預留充足的制度空間,通過明確的授權條款,賦予國務院或相關主管部門針對生成式人工智能等特定技術、自動駕駛和智慧醫療等特定領域、算法影響評估和模型安全測試等特定問題制定更具操作性的行政法規、部門規章和國家標準的權力。如此,便能形成一個以統一的人工智能法為核心,以各類專門法規、標準為支撐的法律規范體系。在這一體系中,統一立法保障了治理的體系性、原則性和價值統一性,而下位法和配套規范則確保了規則的靈活性、場景適應性和技術敏感性。因此,對統一立法任務的再審視,就是要破除“法典化”的迷思,清晰地認識到其使命在于構建一個穩定、開放、協調的治理框架,而非打造一個封閉、僵化、無所不包的規則囚籠。

      (二)統一立法會遭遇技術演進的不確定性沖突嗎?

      對統一立法最尖銳的質疑,源于人工智能技術演進的不確定性。人工智能技術迭代之快、應用范圍之廣早已超出了人類的預期與想象,這似乎與法律的確定性和穩定性形成了先天的沖突。法律規制是基于對技術本身及其演化路徑的預設,而技術演化本身就具有不可預測的突變性特點。既有技術會通過重新組合嵌套和自我創造(autopoiesis)形成新的功能結構,這個過程就像生物進化一樣高度復雜且不可預知。而通用人工智能展現出的“涌現”特征更是凸顯了這種不確定性。“涌現”描述了系統在達到一定規模和復雜性后,自發獲得了未被直接編程或訓練的新能力。緊隨這種不可預測的“能力涌現”而來的便會是“風險涌現”,這些風險同樣是不可預測的。這就導致傳統意義上基于經驗與預測的立法面臨根本性的挑戰——如果連開發者都無法完全預知其創造物的所有潛能和風險,立法者又何以制定出全面、前瞻且有效的法律規則呢?這似乎使得任何試圖為人工智能制定統一法律的努力,都注定會因過時而淪為技術發展的“背景板”。

      然而,這并不意味著人工智能統一立法不可行或不必要。一方面,在不確定性面前的猶豫會導致人工智能立法陷入“科林格里奇困境”(Collingridge Dilemma),既無法應對當前的規制需求,也容易推高未來的規制成本。科林格里奇困境揭示的是一種治理悖論:技術發展早期風險尚且可控,卻因難料長期影響和潛在風險而無法作出明智的規制決策;而當技術被廣泛應用、其影響充分顯現時,它已經深度嵌入社會經濟結構之中,形成了強大的技術路徑依賴和利益固化,此時再去改變或控制它則變得極其困難。立法時機一般應把握在社會矛盾與問題已經出現端倪或初步形成,尚未病入膏肓,而又有條件加以解決的時候。如果當前不嘗試通過統一立法促進和規范人工智能健康發展,日后再亡羊補牢反而可能會造成更大的社會成本。另一方面,人工智能技術的不確定并不等于技術應用所產生的社會關系的不確定。法律規制的對象并非技術代碼或算法模型本身,而是由技術應用所引發的社會關系、權利義務分配與價值沖突。盡管技術細節瞬息萬變,但其所觸及的基本法律價值(如人格尊嚴、公平、安全、隱私)和核心法律關系(如開發者、提供者、使用者與利益相關者之間的關系)具有相對的穩定性。因此,應對技術不確定性的關鍵,不在于放棄統一立法,而在于將統一人工智能法塑造為一部能夠學習和進化的法律,在穩定與適應之間保持動態平衡。

      面對人工智能技術的不確定性的挑戰,統一立法可以通過以下制度設計和立法技術予以有效回應。第一,堅持原則導向與技術中立的立法策略。統一立法的核心應是確立一套具有高度概括性、包容性和前瞻性的基本原則,聚焦于人工智能系統應達成的功能目標、應遵循的價值導向和應避免的負面后果,而非限定其具體的技術實現路徑。這種“技術中立”的表述,使其能夠跨越不同技術代際,為評估和規制未來出現的、形態各異的人工智能系統提供持久的法律依據。第二,從實體規制更多地轉向過程性規制。面對“涌現”帶來的結果不可預測性,法律的重心可以部分地從規定“不能做什么”的實體禁令,轉向規定“必須如何做”的程序性義務。這種過程性規制,旨在確保人工智能系統的開發與部署過程是負責任、審慎和透明的,從而在無法完全預知所有風險的情況下,最大限度地降低風險發生的概率并減輕其危害后果。第三,采用“模塊組合”的立法思路,增強法律體系的適應性。我們可以將統一的人工智能法設計為一個由“核心模塊”與若干“功能模塊”組成的開放體系。“核心模塊”規定適用于所有人工智能系統的基本原則、定義、治理架構和通用義務,確保法律體系的統一性與穩定性。而針對特定技術、特定領域或特定問題,則可以制定相對獨立的“功能模塊”。當技術或社會需求發生重大變化時,可以更為靈活地增補、修訂或廢止某個“功能模塊”,而無需對整個法律體系進行顛覆性重構,從而提升法律的敏捷性。通過原則導向、過程性規制和模塊化設計,統一立法可以成為一個穩定而開放的治理平臺,不求一勞永逸地解決所有問題,而是致力于構建一個能夠持續學習、適應和演進的法律框架,從而在駕馭不確定性的同時,為人工智能的負責任創新提供穩定可期的法治軌道。

      (三)統一立法會導致創新抑制后果嗎?

      將統一立法等同于“一刀切”的嚴苛監管,進而推斷其會抑制技術創新與市場活力,是反對統一立法的常見論調。持此論者往往以歐盟《人工智能法》為例,認為該法確立的嚴格監管框架推高了企業合規成本,扼殺了市場創新活力。這種觀點將法律規制與創新發展置于一種非此即彼的對立關系之中,忽視了二者之間的辯證互動。人工智能統一立法對于技術創新與產業發展的效果,取決于其立法目標、價值取向與規范路徑。法律并非總是壓制型的強制性規范,還有鼓勵型的提倡性規范與獎勵性規范,通過保障創新主體權益、集聚創新要素、豁免創新責任等方式,可以在規制創新風險的同時促進創新。一部制定良好的人工智能法,其目標并非簡單地施加束縛,而是通過構建一個清晰、穩定且可預期的法治環境,為負責任的創新劃定“跑道”而非設置“路障”。面對市場自發的人工智能技術應用創新,缺乏統一的頂層設計可能導致監管真空與監管沖突的混亂局面,立法闕如導致的監管不確定性亦會對創新活動形成抑制。在沒有統一立法進行系統性調整的情況下,創新主體疲于應對不同部門和地區出臺的碎片化規則,合規成本急劇攀升,最終同樣會抑制創新。申言之,是否會導致創新抑制后果不在于統一立法本身,而是在于統一立法所制定的制度規范能否實現規制與激勵的精巧平衡。

      從立法宗旨來看,堅持“安全與發展并重”的規制目標可以避免過度監管的傾向。人工智能立法的呼聲源于對人工智能風險的擔憂,主張抓緊立法的觀點也多著眼于風險防控與行為規范。這一立場在很大程度上被解讀為要對人工智能進行嚴格監管,進而造成了人工智能法就是人工智能監管法的誤解。然而,立法是一個廣泛聽取意見和平衡利益的過程,人工智能產業創新發展的需求并不會被無視。隨著人工智能在數字經濟發展和大國博弈中地位的日益凸顯,“不發展是最大的不安全”開始成為共識。回應人工智能的發展需求,也是人工智能立法的重要任務。這也就決定了人工智能統一立法不能片面強調監管,而是要兼顧風險規制法與產業促進法的雙重屬性,在對人工智能技術及其應用進行有效監管與規范的同時,也為人工智能創新活動提供制度空間與保障激勵。

      從立法技術來看,人工智能立法中的“促進型規范”可以為技術與產業創新提供制度支撐。法律規制不只是消極的限制與禁止,還包括積極的鼓勵與促進。人工智能立法中著眼于支持人工智能技術和產業發展的“促進型規范”,能夠為人工智能創新提供有利的制度空間。一方面,人工智能統一立法可以在更高位階為支持和促進人工智能發展提供法律依據,協調配置財稅、金融、人才等資源,促進算法、算力和數據等要素的集聚和供給。另一方面,通過統一立法引入人工智能監管沙盒等創新友好型治理工具,允許企業在風險可控的真實或模擬環境中測試新技術、新產品、新模式,而監管機構則可以從中觀察風險、積累經驗,從而制定出更具針對性和適應性的監管規則。通過這些制度設計,統一立法非但不會抑制創新,反而能夠通過主動賦能,為人工智能產業的高質量健康發展提供堅實的法治保障。

      (四)統一立法會存在規則場景錯配的適用難題嗎?

      人工智能的應用場景橫跨金融、醫療、交通、司法等眾多領域,其技術形態、風險特征與利益結構千差萬別。由此引發的疑慮是:統一的人工智能法所設定的普適性規則,能否有效應對如此高度異質化的場景需求?是否會因其抽象性而導致在具體適用中出現規則與場景錯配的困境?這一擔憂實質上源于對統一立法功能的誤解,即認為它試圖窮盡所有應用場景的細致規則。這不僅是不現實的,也違背了現代法律體系分工協作的基本原理。誠然,人工智能風險規制與產業發展的制度需求在多元場景下呈現出差異化、復雜化的特點,但不同應用場景并不會脫離人工智能的技術實質,其底層邏輯上的共性并不會因場景不同而消弭。基于共性的人工智能統一立法,能夠在明確通用制度框架的基礎上形成動態的規制體系,實現對具體應用場景的靈活有效適用。

      人工智能統一立法的任務在于以通用性規范為基礎,構建一個能夠實現“一般”與“特殊”良性互動的開放式法律體系。統一立法的核心目標在于構建人工智能治理的基本原則與核心制度,而不是試圖窮盡所有應用場景的具體規則。技術演化和應用場景的多樣化,決定了統一立法必須保持原則性和開放性,通過發揮其統領性作用與配套制度形成協同規制的效果。具體而言,一方面,可以通過授權條款為下位法的制定預留充足的制度空間,例如授權國務院或相關主管部門針對自動駕駛等特定類型的人工智能應用制定更具操作性的行政法規或部門規章。另一方面,對某些已經形成獨特法律關系和規制需求的領域,可在統一法的基礎上制定專門的單行法律或法規,進行更為深入和系統的規范。此外,統一立法確立的基本原則和規制框架也能為地方立法和行業自律規則探索新興場景的人工智能應用規則提供指引和依據。概言之,統一立法旨在建立人工智能治理制度框架和各類應用場景的通用規則,特殊場景由統一立法指引下的具體規則予以規范,并不會出現規則場景錯配的問題。

      人工智能統一立法的層級也決定了其不宜承擔對所有具體場景設定細致規則的使命。作為全國人大常委會制定的法律,人工智能法要保持穩定性與權威性,就應妥善處理條文內容的詳略,以基本框架和底線原則作為主要內容,而不是淪為僵化繁雜的“操作手冊”。當然,這并非意味著統一立法會完全回避對具體場景應用的規定。對于一些風險等級極高、對公民個人權利與社會公共利益影響重大的特殊應用場景,例如利用人工智能進行關鍵基礎設施運營、提供核心公共服務、開展執法活動等,統一立法中可以也應當設定一些關鍵的、底線性的規制要求,以確保基本的安全與公平。這種“抓大放小”的策略,結合完善的法律解釋機制和動態評估修訂機制,能夠確保統一法在保持宏觀指導性的同時,具備足夠的場景適應性,最終形成一個以統一立法為綱、多層級規范協同演進的有機法律體系,從而有效化解規則與場景錯配的適用難題。

      人工智能統一立法的制度功能

      立法不僅是社會發展的產物,更是塑造社會秩序、引導社會發展的建構性力量。對于人工智能這一重塑社會結構與生產關系的顛覆性技術,統一立法的意義遠超對既有規則的簡單增補,也承載著構建國家治理體系新范式、回應技術革命系統性挑戰的宏大使命。盡管有個話題常被提及:有統一立法的歐盟人工智能技術與產業卻明顯落后于尚未統一立法的中美,那么統一立法是否確有必要?需要說明的是:技術與產業的進步受資本、人才、市場、創新文化等多重因素的影響,法律只是變量之一,不宜簡單地認為統一立法造成了歐盟在人工智能領域的滯后,更不宜將中美人工智能的發展歸功于沒有統一立法。中美雖無統一立法,但在人工智能領域依然有分散的法律規則發揮調整作用,然而碎片化規制模式造成了人工智能規則體系的內部沖突與失衡,難以系統性回應人工智能的法治需求。一部精心設計的統一人工智能法,能夠發揮體系協調、價值平衡、規則奠基與實踐引導等多重關鍵的制度功能,為人工智能的健康發展提供堅實的法治保障。

      (一)體系協調功能

      當前,我國針對人工智能的法律規制呈現出“碎片化”特征,相關規則散見于不同位階的法律、行政法規、部門規章、地方性法規、國家標準乃至各類政策性文件。從我國網絡安全法、數據安全法、個人信息保護法等法律對數據處理和算法應用的基礎性規范,到國家網信辦等部門密集出臺的《互聯網信息服務算法推薦管理規定》《互聯網信息服務深度合成管理規定》《生成式人工智能服務管理暫行辦法》等部門規章對特定技術或場景的“精準滴灌”,再到深圳、上海等地為促進地方產業發展而出臺的專門條例,共同構成了一幅看似繁茂卻結構松散的規則圖景。這種“小步快跑”的規制策略雖然在一定程度上對新興技術風險作出了快速反應,但由此帶來的“多頭并進、條塊分割”的治理格局也無可避免地產生了立法層級不高、概念術語不一、規則交叉重疊甚至相互沖突以及監管空白等問題。而以部門規章為主要形式的人工智能立法嘗試,可能因治理體制模糊而形成“九龍治水”式的困境。

      從法體系理論的視角審視,成熟的法律體系追求內在的邏輯自洽與價值統一,以確保其作為社會系統溝通媒介的有效性與可預期性。法律的碎片化不僅會侵蝕法律體系的融貫性,增加市場主體的合規成本與法律適用的不確定性,更可能因缺乏頂層設計而無法有效應對人工智能所帶來的系統性、全局性風險。在此背景下,統一立法首要的制度功能,便在于發揮其強大的“體系協調”作用,推動人工智能法律從自發零散的“規則簇群”演進為協調融貫的“法律體系”。

      統一立法能夠通過設定“元規則”,為人工智能治理提供統一的法理基礎和制度框架。統一立法的底層邏輯在于為多層級的規則體系提供上位法依據,從而彌合分散立法下人工智能治理規則碎片化導致的話語鴻溝與制度罅隙。隨著基礎性立法指引功能的發揮,多層級的治理規則能夠實現體系上的統一性。一是對人工智能法的核心概念作出明確界定。通過在國家立法層面對“人工智能系統”“研發者”“提供者”“高風險人工智能”等核心概念作出明確的界定,為整個治理體系提供一套通用的概念話語,避免在不同法規和司法實踐中產生語義分歧與適用混亂。二是對人工智能法的基本原則作出明確規定。確立如“以人為本”“安全可控”“公平正義”等貫穿始終的基本原則,使其成為解釋和適用所有涉人工智能法律規范的根本指針,確保治理的價值導向不發生偏離。三是對人工智能法的制度框架作出明確規定。從整體層面構建產業促進、風險評估、倫理審查、負面清單、責任分配等核心制度的基本框架,為各部門和地方在制定配套法規和政策時提供共同遵循,避免部門或地方因本位主義導致規則偏差。

      統一立法能夠協調新法與舊法、一般法與特別法的關系,通過扮演“法律路由器”的角色為碎片化的人工智能治理規則提供協調統合的基石。一方面,它可以明確自身與我國民法典、著作權法、個人信息保護法等現有法律的銜接與適用關系,解決因人工智能應用而產生的法律適用沖突或規范競合問題。例如可以通過明確數據訓練中的合理使用問題,解決人工智能模型訓練中的知識產權法律障礙。另一方面,它能夠通過明確的授權條款,為位階較低卻更加細化的專門立法和軟法規范的制定提供合法性基礎和制度空間,形成一個以統一法為核心,多層級規范協同配合、綱舉目張的有機整體。最終,通過這種體系化的協調與整合,能夠有效克服碎片化治理的弊病,提升國家整體治理效能,推動人工智能法律制度從“反應式修補”向“建構式塑造”的根本性轉變。

      (二)價值平衡功能

      人工智能的發展與應用伴隨著深刻的價值重塑過程,其間充斥著多元甚至相互沖突的利益訴求。效率提升與公平正義、產業發展與社會安全、技術創新與風險防控,這些價值沖突在人工智能語境下被前所未有地放大和激化,由此引發了一系列根本性的追問:我們是否應當容忍一個“野蠻生長”的早期階段,以換取技術領先的優勢?“先發展后治理”的“亡羊補牢”模式,其社會總成本是否真的經濟?法律的核心功能在于對社會中相互沖突的利益進行識別、衡量與排序,人工智能立法也繞不開“利益衡量”這一核心命題。在碎片化的立法格局下,價值平衡往往是局部的、權宜的,甚至可能因部門本位主義而出現系統性偏差。例如產業主管部門可能天然傾向于激勵創新,而安全監管部門則更側重于風險防范,二者制定的規則可能傳遞出相互矛盾的價值信號。統一的人工智能法的不可替代的制度功能便在于能夠在一個更高的位階上對這些根本性的價值沖突進行系統性的審視、權衡與決斷,為整個國家的人工智能負責任創新確立清晰的價值航向。

      首先,統一立法可以發揮強大的價值宣示與整合功能,指引人工智能健康發展。盡管在技術與產業發展過程中,人工智能的倫理準則與價值原則不斷在凝聚共識,然而由于缺乏權威性和約束力,治理實效有限。而法律能夠以最權威的形式,通過其立法目的、基本原則等條款,以及具體規則設置中所體現的利益衡量,宣告國家在人工智能發展與治理上的核心價值取向。例如將“促進發展”與“保障安全”并列為立法目的,本身就是一種深刻的價值宣示。這能為所有后續的制度設計、法律解釋和適用提供根本的價值遵循,避免在具體治理實踐中無所適從或各行其是。同時,統一立法確立的基本原則,也能為人工智能研發和應用活動的參與者和利益相關者提供明確的價值指引,實現行為規范與風險預防的制度效果。

      其次,統一立法可以通過精巧的制度設計,將抽象的價值理念轉化為可操作的法律機制。將立法的價值目標和基本原則融入制度規則的細節,形成可以分配和調節不同主體的利益并實現激勵相容的法律機制,體現了從原則到規則的制度機理。人工智能統一立法,可以在平衡多元利益與價值的基礎上設置相應的法律機制,從而實現安全與發展并重的價值目標。例如通過人工智能分類管理制度,構建以風險為基礎的差異化的規制體系:對于絕大多數低風險或無風險的人工智能應用,采取“軟法”引導或市場自律的寬松政策,最大限度地釋放創新活力;對于具有一定風險的應用,則設定透明度、數據質量等通用性義務;唯有對少數涉及基本權利、公共利益的高風險的人工智能系統,才施以嚴格的、貫穿全生命周期的監管措施。這種“精準施策”的制度安排,本身就是對發展與安全兩種價值進行動態平衡的產物。

      最后,統一立法可以在利益平衡的基礎上降低人工智能發展的社會總成本。從法律經濟學的視角看,允許制度缺失下的“野蠻生長”實質上是默許創新主體將其產生的負外部性轉嫁給整個社會。事后的侵權救濟往往面臨著因果關系證明困難、損害彌散化、維權成本高昂等難題,其社會總成本可能遠高于適度的事前規制。一部統一的人工智能法,通過設定必要的準入條件和行為規范,促使開發者和提供者從源頭上考慮和控制風險,能將外部性“內部化”,這在制度經濟學上是更有效率的安排。因此,統一立法所承載的價值平衡功能,并非簡單的利益折中,而是基于對社會整體福利和長遠利益所作出的理性制度抉擇。

      (三)規則奠基功能

      法治的核心要義之一在于提供確定性。正如哈耶克所言,法治意味著政府在一切行動中都受到事前規定并宣布的規則的約束,這些規則使得人們能夠十分肯定地預見到當局在特定情況中會怎樣使用其強制權力,并據此規劃自己的個人事務。人工智能作為一項充滿不確定性的顛覆性技術,其發展尤其需要一個穩定、透明、可預期的法治環境。缺乏清晰的規則,市場主體將面臨巨大的法律風險和合規成本,創新探索將畏首畏尾,長期投資將缺乏信心。美國聯邦層面在統一立法上的遲滯,導致各州立法“多點開花”,行政命令與司法判例交織,形成了一個動態但碎片化的“反復框架”,這給跨州經營的企業帶來了顯著的合規挑戰。根據制度經濟學的理論,穩定和明確的制度安排能夠顯著降低交易成本,從而促進經濟活動的繁榮。統一的人工智能法能夠發揮至關重要的“規則奠基”功能,其核心不在于為人工智能的發展設定具體的路徑或條條框框,而在于為整個生態系統劃定清晰的“底線”,在一定程度上消除制度的不確定性,奠定人工智能健康發展的制度基石。

      首先,統一立法通過明確各方主體的基本權利、義務和責任,為人工智能相關活動提供清晰的指引。相比于分散式、碎片化的人工智能規則,統一立法能夠以更高的法律位階和效力層級規定相關主體的行為模式和法律后果。就市場主體而言,規定研發者和提供者在安全性、透明度和公平性等方面的基礎義務以及涉及高風險人工智能時的特殊義務,并規定其違反管理規定或造成民事侵權時的法律責任,可以使市場主體能夠預見其行為的法律后果,從而在創新活動中進行理性的風險評估與管理。這不僅可以降低法律模糊性帶來的交易成本,有效保障使用者和其他利益相關者的權益,而且能為人工智能領域的投資決策提供穩定的預期,吸引長期資本進入這一戰略性領域。同時,統一立法能夠建立人工智能綜合治理的體制機制,明確相關部門的職責權限和制度工具箱,為人工智能治理提供明確的制度依據。

      其次,統一立法通過設定不可逾越的“倫理紅線”和“安全底線”,為整個社會構建起一道安全屏障。法律是最低限度的道德,構筑著社會控制的底線標準。統一立法可以將人工智能的基礎性倫理原則從軟法倡議轉化為具有法律強制力的制度規范,并且憑借其普遍適用性形成統一化的規制效果,明確人工智能研發和應用的底線規則。統一立法對底線規則的設置,既能為不同主體、不同場景、不同地區的人工智能活動劃定最低限度的行為邊界,確保人工智能的技術創新和產業發展與公民基本權利和社會公共利益的相容,又不妨礙其他層級的制度規則或軟法規范對人工智能活動提出更高標準的要求。通過統一立法奠定人工智能活動的底線規則,可以確保人工智能發展不偏離安全軌道,進而塑造負責任創新的制度框架,使人工智能產業獲得持久的社會信任和市場生命力。

      最后,統一的頂層設計有助于增強我國在全球人工智能治理中的規則影響力和制度競爭力。歐盟在數字立法領域的“布魯塞爾效應”啟示我們,一部具有前瞻性、體系性和穩定性的統一人工智能法,本身就是中國向世界展示其治理理念和制度方案的“名片”。它有助于構建一個可信賴的國內人工智能生態,吸引全球頂尖人才和技術,同時也為我國企業“走出去”提供了堅實的國內法治保障。通過在國內奠定堅實的規則基礎,中國能夠更自信、更主動地參與全球人工智能治理規則的制定,推動形成更加公平、合理、包容的人工智能國際治理新秩序。

      (四)實踐引導功能

      法律的生命力不僅體現在頒布后的文本中,更蘊含于其形成過程的社會互動與公共審議之中。對于人工智能這樣技術與社會深度交融的新興領域,統一立法的過程本身,就具有不可忽視的規范塑造、預期引導、共識凝聚和知識普及等多重治理效果。從法社會學和商談理論的視角看,立法過程是一個國家圍繞特定社會問題展開的最大規模的“公共說理”和“集體學習”過程。即使立法最終出臺尚需時日,統一立法的過程效應也不容忽視。

      首先,立法過程具有強大的“議程設置”與“規范塑造”效應。當一部統一的人工智能法被正式列入國家立法規劃,其本身就向全社會傳遞了一個強烈的信號:人工智能治理已從部門層面的技術性問題,上升為關乎國家發展與安全的根本性、全局性問題。這會迅速將算法偏見、數據安全、人工智能倫理、就業沖擊等議題置于社會輿論的聚光燈下,引發社會各界的廣泛討論。在這一過程中,立法草案、專家建議稿中提出的原則、理念和規則,會逐漸滲透到行業實踐中,對企業產生“軟約束”和示范引導效應。企業為了適應未來的監管環境、規避聲譽風險,可能會提前調整其研發策略和內部治理結構,主動采納“負責任創新”的實踐。這種“未立先生效”的現象,正是立法過程實踐引導功能的生動體現。

      其次,立法過程是構建多方參與的溝通反饋機制、凝聚社會共識的寶貴平臺。根據貢塔·托依布納的“反身法”理論,面對高度復雜的社會子系統,法律的最佳角色并非直接的命令與控制,而是通過程序性規則來促進該系統內部的自我反思與溝通。統一立法的過程,特別是草案的公開征求意見、立法聽證會、專家咨詢會等環節,恰恰為多元主體提供了一個制度化的溝通、博弈與協商平臺。在這種開放、透明、包容的審議過程中,不同利益相關方的觀點得以充分表達與碰撞,有助于吸納各方智慧,彌合認知分歧,在多元訴求中尋求最大公約數,從而提升立法的科學性、民主性和最終的可接受性。經由充分公共商談而形成的法律,其正當性基礎更為堅實,實施的阻力也更小。

      再次,立法過程本身就是一個知識生產與社會動員的過程。立法議題的提出和討論本身就具有強大的規范功能。將人工智能發展與治理中的核心問題,如算法歧視、深度偽造、機器幻覺、自動化決策的透明度與可解釋性、人工智能的責任認定與權利保障等正式納入國家立法議程,能夠極大地提升全社會對這些問題的關注度和反思深度。這有助于推動形成關于“好的人工智能”和“負責任的人工智能”的社會規范,促進科技倫理教育的普及,為后續的司法實踐、行政執法以及行業自律提供更為清晰的價值導向和判斷依據。

      最后,立法過程的治理效果具有持續性。即使統一立法在短期內難以一步到位,圍繞其展開的持續性研究、政策試點、標準制定、倫理倡導以及小范圍的專項立法探索,本身也是一個動態演進、積累經驗、凝聚共識的治理過程。這些過程性的努力,都在為最終形成一部高質量、能夠有效引領和保障我國人工智能健康發展的統一法律文本創造條件、積蓄力量。而統一立法過程所伴生的公眾參與、議題設置、預期調節,都會對人工智能活動的參與主體和利益相關者產生持續的治理效果。因此,我們不僅要關注統一立法的“結果”,更要善于運用和放大立法“過程”所蘊含的治理能量。

      我國人工智能統一立法的路徑選擇

      統一立法是實現我國人工智能良法善治的重要保障。盡管不能指望畢其功于一役,但也不宜因為一時的爭議或遇冷而偃旗息鼓。當前我國制定一部統一的人工智能法的核心挑戰不僅僅在于技術層面上具體條款的精雕細琢,更在于如何從宏觀層面把握統一立法的推進策略與實現路徑。

      (一)堅持基礎性立法定位

      人工智能技術具有快速迭代、廣泛滲透和場景多樣等特點,僅憑一部法律不足以窮盡細節,強求完備只會使立法條文臃腫且易于過時。加之人工智能開發與應用所涉法律關系并非完全排斥其他成文法調整。因此,我國人工智能統一立法不應執著于追求法典化的完備性,而是應當定位為人工智能法律治理體系的“基石”,側重于構建人工智能治理的底層邏輯與通用規則,明確其作為基礎性立法的邊界與功能,在構筑治理制度的“四梁八柱”的同時建立與法律體系其他部分的有機聯系。

      首先,明確統一立法的規制邊界,厘清統一立法與下位法的內容分工。統一立法應聚焦于具有根本性、全局性和跨領域性的“元規則”的創設。具體而言,人工智能技術與應用中應當堅持的根本價值與基本原則,如以人為本、安全向善、公平普惠等,應當在統一立法中予以確認,作為解釋和適用所有人工智能法律規范的根本指南。人工智能治理領域的核心概念,如人工智能系統、提供者、高風險等,需要在統一立法中予以界定,以避免適用過程中的模糊與歧義。人工智能治理體制機制的頂層設計,包括人工智能促進與管理制度、監管機構的設置、職責劃分與跨部門協調機制等,需要通過統一立法完成分配與授權。人工智能活動主體所應負有的維護安全、透明和公平的基礎性、通用性義務,以及違反法律或侵權行為所產生的法律責任,需要在統一立法層面予以規定。除此之外,具有高度場景依賴性或技術易變性的具體規則,原則上應交由下位法予以調整。易言之,統一立法旨在為人工智能治理提供制度框架和基本原則,特定類型的人工智能領域則可由更具體的制度規范予以調整。

      其次,設計科學的授權機制,確保下位法在統一立法的統領下保持靈活性。統一立法主要的規范內容應當是可以保持相對穩定性和普適性的通用規范,對于具有不確定性的規范內容,則應該充分發揮下位法與基礎性立法的協同效應,通過授權國務院或相關主管部門以法規、規章的形式予以規范。當然,鑒于我國人工智能產業布局在空間維度上的巨大差異,各地可在遵守統一立法的前提下根據產業特色、資源稟賦和風險場景的不同制定更加細化的地方性立法,在鼓勵地方創新的同時亦可精準回應本地需求,避免“一刀切”。此外,為了確保規范的一致性,統一立法中的授權條款不應是簡單、籠統的交由國務院或主管部門規定,而應是“附帶指引的授權”。這意味著授權條款需要明確授權的目的、范圍、原則和關鍵內容,為行政立法提供清晰的框架和邊界。

      最后,建立有效的銜接機制,處理好統一立法與現有法律體系的關系。人工智能的開發與應用所涉法律關系復雜多元,廣泛觸及民法典、個人信息保護法、網絡安全法等既有法律。為避免法律沖突和適用空白,統一立法應當設置相應的引致條款和轉致條款,明確人工智能法律關系的法律適用,發揮基礎性立法的“法律路由器”功能。具體可通過“映射—識別—銜接”三步實現:在立法過程中系統“映射”出現有法律中可能與人工智能相關的條款,“識別”出潛在的沖突點、模糊地帶或規范空白,繼而通過設置明確的“銜接”規則予以回應。例如,其他法律對人工智能在金融、醫療等特殊應用場景的準入有許可要求的,應從其規定。這種主動的、明確的銜接設計,能夠將統一立法無縫嵌入現有法律體系,而非制造新的法律孤島。

      (二)平衡發展導向與底線思維

      海德格爾技術哲學認為,技術的本質超越工具,是一種能夠揭示自然界的隱匿寶藏的“解蔽”之力。但與此同時,每一次聚焦都伴隨盲區,“解蔽”的同時也可能“遮蔽”潛在的風險。為充分釋放人工智能技術的創新潛力并防范其潛藏的各類風險,我國人工智能統一立法必須在制度設計中充分體現促進創新發展與保障安全規范的雙重目標,在發展導向與底線思維之間尋求精妙的動態平衡。

      首先,可通過構建“雙支柱”的法律結構,從體系上確保發展與安全的平衡。統一立法可在總則之后,分設“促進與發展”和“風險與治理”兩大核心章節,賦予二者同等地位。在“促進與發展”章節中,系統規定國家在發展規劃、財政投入、數據資源開放共享、知識產權保護、要素供給、基礎設施建設、人才培養、國際合作等方面的支持性、激勵性措施。在“風險與治理”章節中,則圍繞風險分類分級、高風險領域監管、算法透明度和可責性、外部監督等內容,構建起堅實的風險防范框架。這種結構化的設計,本身就向社會傳遞“發展與安全并重”的強烈信號,避免立法在實踐中滑向單一維度的風險規制或產業促進,確保價值平衡在法律文本層面的制度化表達。

      其次,應引入“雙向影響評估”作為規制決策的法定程序。為避免監管措施對創新造成不必要的抑制,統一立法可規定,任何針對人工智能的重大監管政策或標準在出臺前,必須進行“雙向影響評估”,不僅要論證該措施在防范風險方面的必要性與有效性,還必須系統分析其對技術創新、產業發展、市場競爭以及中小企業可能造成的成本與負擔。評估過程應有產業界、學術界和利益相關者代表的實質性參與,評估報告須向社會公開,作為決策合法性的重要依據。

      再次,建立“激勵相容”的合規機制,將“安全”與“發展”的目標內在地統一起來。“命令—控制”的威懾監管模式,極易陷入“威懾陷阱”或引發“寒蟬效應”。因此,人工智能統一立法不應僅僅是懲罰違規者,更應通過合規激勵機制獎勵負責任的創新者。例如,對于那些在內部治理、倫理審查、風險管理等方面表現出色,并獲得權威第三方認證的企業,可以在政府采購、數據開放、項目申報等方面給予優惠待遇,或在進入“監管沙盒”時享受更寬松的條件。此外,可以探索建立合規領域的“安全港”制度作為責任有條件豁免的創新激勵機制,即企業若能證明其嚴格遵守了國家認可的最佳實踐標準或行為準則,在發生某些非惡意的技術性損害時,可以作為減輕或免除其行政責任的法定事由。這種設計將合規成本轉化為一種競爭優勢,引導企業將“負責任創新”內化為核心競爭力,從而在市場機制下實現發展與安全的良性互動。

      最后,在風險治理上采取“底線思維+比例原則”的精細化策略。統一立法必須劃定不可逾越的“安全底線”,通過“負面清單”的方式,明確禁止開發和使用對基本權利和公共安全構成不可接受風險的人工智能系統。對于底線之外的廣大領域,則應嚴格遵循“比例原則”,將監管強度與風險等級精確匹配。對于低風險人工智能系統的應用,應以市場自律和“軟法”引導為主,最大限度釋放創新空間。對于有限風險的人工智能系統的應用,則施加透明度等一般性義務。對經程序認定的高風險應用,則適用嚴格的全生命周期監管,對相關研發者和提供者科以增強義務或特殊義務。

      (三)確保制度規則的敏捷與彈性

      人工智能技術以前所未有的速度和廣度進行迭代創新,這對傳統法律的穩定性提出了嚴峻挑戰。一部僵化、滯后的法律不僅無法有效規制風險,反而可能成為技術進步的桎梏。因此,我國人工智能統一立法應當高度重視制度規則的敏捷性與彈性,通過嵌入一系列“敏捷治理”機制,使其能夠成為一部適應技術動態演進和場景多元復雜的靈活有效、彈性包容的法律。

      首先,構建“核心框架+動態清單”的規制模式。統一立法本身應專注于構建穩定、原則性的治理框架,避免對易變的技術細節和應用場景作過多硬性規定。維持敏捷性的關鍵,在于將具體的、易變的監管對象通過“動態清單”的方式進行管理。例如,對于高風險人工智能的界定,法律應只規定核心判定標準,如對基本權利、生命健康、公共安全的潛在重大影響,以及原則性領域,如關鍵基礎設施、醫療、司法等。而具體哪些人工智能應用屬于高風險,則參照歐盟《人工智能法》的做法以附件或配套規定的形式,形成一份“高風險人工智能清單”。更重要的是,法律必須授權特定監管機構建立一套公開透明的法定程序,對該清單進行定期評估和動態更新。這一機制將通過相對固定的核心框架維持法律的穩定性,同時通過定期更新的動態清單確保規則的適應性,兩者相結合使得法律能夠跟上風險演進的步伐。

      其次,探索“模塊組合”的適應性立法架構。可以將統一立法設計為一個由“核心模塊”與若干“功能模塊”組成的開放體系。“核心模塊”即統一立法本身,規定適用于所有人工智能系統的基本原則、定義、治理架構和通用義務,確保法律體系的統一與穩定。在此基礎上,法律授權針對特定技術(如基礎模型)、特定領域(如自動駕駛)或特定問題(如人工智能知識產權)制定相對獨立的“功能模塊”(形式上可以是行政法規或部門規章)。當技術或社會需求發生重大變化時,可以更為靈活地增補、修訂或廢止某個“功能模塊”,而無需對整個法律體系進行顛覆性重構。這種模塊化的思路,結合定期的需求評估和效果反饋機制,能夠顯著提升法律的適應性和生命力。

      再次,明確“監管沙盒”與“試點示范”的制度設計。法律規則本身是剛性的,但是在統一立法中設置具有責任豁免色彩的監管沙盒與試點機制,能夠在風險可控的基礎上為人工智能創新提供彈性空間。監管沙盒在金融科技領域的成功應用形成了較好的制度經驗,其本身也與具有中國特色和中國智慧的“試點”機制異曲同工,具備將其應用在人工智能治理中的基礎。因此,統一立法應當明確人工智能監管沙盒的制度機制:一是明確申請進入沙盒或試點的資格條件、審批程序和監管機構。二是厘清參與者的法律責任豁免范圍,對試驗中因技術探索而產生的非惡意、非重大損害,可依法減免其法律責任,以消除創新者的后顧之憂。三是建立全過程的風險監控與應急處置機制,確保試驗風險始終處于可控范圍內。

      (四)發揮立法過程的治理效果

      法律的治理功能并不僅僅體現在最終頒布的法律文本上,立法過程本身也具有不可忽視的治理效果。推動我國人工智能統一立法,不能只關注形成統一立法文本的結果目標,還應當高度重視立法過程并充分發揮其治理效果。盡管在當前人工智能統一立法存在分歧,難以一蹴而就,正式出臺可能尚需時日,文本內容也會經歷反復調整,但不影響我國持續穩步推進統一立法,在立法過程中進一步凝聚共識和引導實踐,從而實現立法目標和治理效果的有機統一。

      首先,構建制度化的多方溝通協商機制,確保立法的科學性與包容性。人工智能統一立法涉及政府、企業、技術社群、社會公眾等多元主體的利益關切,為避免立法決策陷入“信息孤島”或被少數利益集團俘獲,應超越傳統的、非正式的專家咨詢模式,制度化引入利益相關方參與立法全過程,建立常態化的公眾參與立法機制和多元溝通協商渠道。立法機關可以盡快形成《中華人民共和國人工智能法(草案征求意見稿)》,通過組織學術研討會和立法座談會,邀請企業家、技術專家、學者以及人大代表等,針對草案征求意見稿中的相關條款進行討論與論證,為各方利益相關者進行辯論與博弈提供平臺,通過理性的對話與論證,尋求能夠兼顧各方核心關切的“最大公約數”,提升立法的正當性與可接受性。

      其次,完善立法信息公開機制,提升立法過程的透明度與公眾參與的有效性。在人工智能立法過程中,應將透明度原則貫穿始終。這不僅意味著要依法向社會公布立法草案征求意見稿,更應主動、全面地公開與立法相關的背景資料,如立法研究報告、域外立法比較資料、對關鍵爭議點的不同觀點綜述等,以幫助公眾更好地理解立法意圖和制度設計的緣由。同時,應創新公眾參與的形式與渠道,利用數字化平臺開設專題討論區、進行在線問卷調查、舉辦網絡直播聽證會等,降低公眾參與的門檻,廣泛匯聚民智。更重要的是,要建立對公眾意見的反饋機制,對于被采納或未被采納的代表性意見,應通過適當方式予以說明和回應,使公眾參與從形式上的“告知”轉變為實質性的“互動”,從而增強公眾對立法過程的信任感和認同感。

      最后,利用立法草案塑造規則預期,引導負責任的創新實踐。立法機關公布的草案雖然并不具備法律效力,但會向市場和社會傳遞出明確的政策信號和規則預期。這種預期管理本身就是一種強大的“軟法”治理工具。立法機關可以有意識地發布包含前瞻性、引導性規則的草案,配合以新聞媒體和專家學者的解讀,激發產業界對未來合規義務的思考,促使其在技術研發和商業模式設計之初就主動融入“倫理設計”“安全設計”和“合規設計”的理念,以避免未來的法律風險和聲譽風險。在某種意義上,這種治理效果實質上是立法過程催化了行業自律規范的形成,以一種成本更低、更靈活的方式,引導整個產業生態向著更加負責任、可持續的方向發展,同時也會降低統一立法文本獲得正式通過的阻力。

      結語

      人工智能的浪潮席卷全球,通過立法回應其帶來的深刻變革與潛在風險已成為時代必然。然而選擇何種立法模式,是人工智能立法必須直面的基本問題。面對當前關于我國人工智能統一立法的激烈論爭,是“讓子彈飛一會兒”的消極等待,還是積極主動地持續推動統一立法進程,成為擺在理論界和立法者面前的艱難選擇。事實上,對人工智能統一立法難以實現全面有效規制、無法應對技術演進的不確定性、過度監管抑制創新、規則場景錯配造成適用困難的擔憂,實際上是對統一立法基礎性、靈活性、包容性和開放性的誤解。更為重要的是,持不宜或不急于統一立法觀點者,忽視了統一立法所具備的體系協調、價值平衡、規則奠基與實踐引導等多重制度功能。因此,我國應當穩步推進人工智能統一立法,通過堅持基礎性立法定位、平衡發展導向與底線思維、確保制度規則的敏捷與彈性、發揮立法過程的治理效果,制定一部具有中國特色的統一人工智能法,在規范和促進我國人工智能健康發展的同時,為全球人工智能法治貢獻中國智慧與中國方案。

      -向上滑動,查看完整目錄-

      《比較法研究》2025年第5期目錄

      【習近平法治思想研究】

      1.論合憲性審查中“涉憲問題”的判斷標準:理論、實踐與平衡

      莫紀宏

      【中國自主法學知識體系】

      2.獎勵型量刑情節的司法適用狀況及其改進

      周光權

      3.中國監察法學自主知識體系建構研究

      趙珊珊

      4.律師有效辯護的國際標準與本土化實現路徑

      郭志媛

      【專題研討】

      5.營商視閾下瀕臨破產公司董事義務的規范構建

      李燕

      6.比較法視域下董事對債權人義務的性質厘清與規范表達

      趙景琛

      【論文】

      7.穩定幣規制的國際博弈與中國對策

      許多奇

      8.人工智能統一立法的論爭與選擇

      袁康

      9.平臺濫用規則行為的反不正當競爭法規制

      殷繼國

      10.從工具客體到關系主體:基于算法法律地位的本體論重構

      王治國

      11.國際海洋法中勤勉義務的擴張與因應

      劉思竹

      12.自動化行政中正當程序原則的重構

      唐安然

      13.論數據抓取行為的正當性判斷

      王文君

      14.認真對待權利關乎文明轉型

      ——《論權利》的學術價值與理論爭點

      黎敏

      《比較法研究》是由中華人民共和國教育部主管、中國政法大學主辦、中國政法大學比較法學研究院編輯的法學期刊,為雙月刊,逢單月25日出版發行。《比較法研究》是純學術性法學期刊,主要刊載比較法學研究的學術論文,現設有“論文”、“專題研討”、“法政時評”、“法學譯介”等欄目。

      點擊進入下方小程序

      獲取專屬解決方案~

      責任編輯 | 郭晴晴

      審核人員 | 張文碩 范阿輝

      本文聲明 | 本文章僅限學習交流使用,如遇侵權,我們會及時刪除。本文章不代表北大法律信息網(北大法寶)和北京北大英華科技有限公司的法律意見或對相關法規/案件/事件等的解讀。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      北大法律信息網 incentive-icons
      北大法律信息網
      法律綜合性網站
      10903文章數 17462關注度
      往期回顧 全部

      專題推薦

      洞天福地 花海畢節 山水饋贈里的“詩與遠方

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 久久天天躁狠狠躁夜夜躁| 狠狠综合久久综合88亚洲| 国产成人亚洲综合图区| 国产午夜亚洲精品国产成人| 99久久er热在这里只有精品99| 国产在线观看网址不卡一区| 久久国产福利播放| 国产美女久久精品香蕉| 国产一区二区三区不卡视频| 国产欧美亚洲精品第一页在线| 精品av综合导航| 天天澡日日澡狠狠欧美老妇| 亚洲综合精品第一页| 伊人久久大香线蕉综合5g| 亚洲综合精品香蕉久久网| 国产熟睡乱子伦视频在线播放| 偷窥少妇久久久久久久久| 清丰县| 欧洲免费一区二区三区视频| 亚洲欧美人成网站在线观看看| 久草热久草热线频97精品| 久久夜色精品国产亚洲a| 中文无码热在线视频| 国产激情无码一区二区三区| 亚洲av日韩av永久无码电影| 免费超爽大片黄| 久久婷婷五月综合色和啪| 国产不卡一区二区四区| 仙桃市| 欧美色欧美亚洲高清在线视频| 日韩中文字幕有码av| 乌苏市| 精品久久人人妻人人做精品| 亚洲一区精品视频在线| 九九热在线观看视频免费| 山西省| 亚洲一区二区三区在线观看精品中文 | 久久无码中文字幕免费影院| 精品乱码一区内射人妻无码| 怡春院欧美一区二区三区免费| 国产二区三区不卡免费|