【副標題】基于自然人路徑與法人路徑的雙重證偽
【作者】陳玥(中山大學法學院博士研究生)
【來源】北大法寶法學期刊庫《河南財經政法大學學報》2025年第5期(文末附本期期刊目錄)。因篇幅較長,已略去原文注釋。
內容提要:自然人路徑下法律主體資格的核心要素是認知能力和意志能力;法人路徑下法律主體資格的核心要素是必要性和有益性。人工智能因不具備意志能力而不符合自然人路徑下法律主體的認定標準。賦予人工智能法人資格既無益處也無必要。在侵權法領域,即使賦予人工智能法人資格,由于智能體本身無經濟來源,相關責任最終仍要通過一定機制分配至現有主體承擔,主體的增加將使責任與權益的分配更加復雜。可通過產品責任、服務管理責任等制度,將人工智能生產者與銷售者、服務提供者等對人工智能系統具有實際控制能力的主體納入侵權責任主體范圍。在權益分配領域,賦予人工智能法人資格并不能解決人工智能生成物權益歸屬困境或者簡化利益分配步驟。對于純由人工智能自動生成的內容,可以參照公共物品管理;對于使用者予以創造性投入的內容,可以根據使用者的創造性投入程度,判斷是否能被視為作品。
關鍵詞:人工智能;法律主體;權利能力;生成式人工智能;法律人格;侵權責任
目次 一、人工智能法律主體資格的雙重認定路徑 二、自然人路徑下人工智能法律主體資格的否定 三、法人路徑下人工智能法律主體化的場景劃分及論證層次 四、侵權場景下人工智能法律主體資格之否定 五、權利歸屬場景下生成式AI法律主體資格之否定 六、結語
2025年全國兩會期間,“具身智能”首次作為未來產業的重要組成部分被寫入政府工作報告。具身智能是指智能體(如機器人、無人機、自動駕駛汽車等)通過與環境實時交互,通過強化學習不斷自我優化和更新迭代,實現感知、認知、決策和行動一體化的新興智能技術類型,其顛覆了傳統人工智能的“離身性”局限,強調智能的本質必須通過身體與環境的動態互動來塑造和體現。生成式人工智能技術隨著Deepseek、ChatGPT等多種前沿應用的開發而逐漸被推廣和不斷優化升級。上述新興人工智能技術因其高度的決策自主性、交互性和創造性,已引起自動駕駛事故責任認定困難、AI生成物產權歸屬不清等司法實踐難題。其中,AI是否應被賦予法律主體資格是上述爭議的核心。學界對此存在較大分歧:支持者強調人工智能具有理解能力、類人意識與行為能力,或者現有治理框架不足以解決人工智能引起的法律問題,因此應當承認其法律主體地位;反對者則堅持人工智能的工具屬性,認為智能機器人不具有意向性、自我意志和理性能力,或者現有法律制度和理論可以有效應對人工智能的相關法律問題,因此堅持人工智能的法律客體地位。為回應人工智能引起的治理困境和法律風險,法學界急需對人工智能法律地位達成共識。然而學者們不僅在最終立場上有爭議,而且在法律主體資格的認定標準、人工智能的算法邏輯等討論前提上存在較大認知差異。本文將回歸基礎理論,全面梳理法律主體的認定路徑和標準,結合人工智能的技術特征與法律實踐,分別從自然人路徑和法人路徑系統考察人工智能的法律主體資格。
一
人工智能法律主體資格的雙重認定路徑
本文所稱“法律主體”,是指具有法律人格,能夠獨立享有法律權利、承擔法律義務的實體,包括自然人與法人兩種類型。自然人法律主體資格的確立根植于啟蒙運動以來的理性主義傳統,以人的理性能力和自由意志為倫理基礎;法人法律主體資格的賦予則主要基于經濟效率和社會治理等現實需求。
(一)人工智能法律主體資格的理論爭議
目前學界關于人工智能法律地位的觀點,可以分為法律主體說、法律客體說、有限主體說三大類。法律主體說認為應當肯定人工智能的法律主體地位并賦予其必要權利;法律客體說反對賦予人工智能法律主體資格,認為人工智能只能作為法律客體而不能被視為法律主體,具體來說主要包括工具主義、動物論、特殊客體論、產品論等觀點;有限主體說認為,人工智能只具備有限的法律人格,主要體現為行為能力有限、權利義務有限、責任能力有限三個方面。有限主體說的提出前提與法律主體說中關于擬制主體的“現實需要”論證理由基本一致,均是基于解決現有法律問題的需要或未來人類利益等功能主義立場,并且有限主體說是在承認人工智能法律主體地位的基礎上提出的一種法律主體化的類型,沒有必要與法律主體說分開討論。從邏輯上而言,有限主體說應當屬于法律主體說的一類,因此下文將把有限主體說歸入法律主體說一起討論。學界關于人工智能是否具備法律主體資格的爭議主要包括以下四點。
第一,法律主體資格范圍是否限于倫理上的人?人工智能法律客體說的一個重要理由是,法律實行人類中心主義,只有倫理人才能生而具有主體資格,這關系到人類的尊嚴和優越地位。對于該理由,先不論人類中心主義的價值取向是否正確,從制度變遷的角度而言,自然人也并非一直具備法律主體地位。古代法中法律主體按照身份決定,一般只有成年男性公民才被視為法律主體,女性、未成年人、奴隸是自然人但不是法律主體,不具備完整的法律人格。經過天賦人權等一系列思想和政治解放,全體人類才逐漸取得主體資格,法律主體的標準從身份轉變為生理結構。其后,隨著經濟的不斷發展,為滿足經濟運行便利的現實需求,符合一定條件的“企業”被擬制為“法人”,成為非人的法律主體。此后,又逐漸產生了動物、河流等一系列非人法律主體。比如2017年新西蘭旺格努伊河成為世界上第一條具有法定權利的河流。綜上,法律主體的范圍不限于倫理上的人,不能以人工智能不具備倫理人的特征而否定其法律主體地位。
第二,人工智能是否具有責任能力?學者們討論的核心在于人工智能是否應當以及能否具備責任能力。袁曾提出通過構建“穿透人工智能面紗”的歸責原則以及配套制度發展“負責任的人工智能”,并認為這是符合人類未來共同利益的選擇。責任財產方面,有學者提出人工智能可以通過勞動、受贈等方式獲得財產,侵權所得保險金、責任基金、社會救助金等也可作為“準資金來源”。對此,否定論的學者則認為賦予機器人“法律人格”是多余的,因為不管機器人以什么方式承擔責任,人都是最終的責任承擔者。但現有法律制度中的法人,其意志最終由人類代為表達、其財產也由人類通過制度擬制并最終由人類承擔,因此,并不能以“最終仍由人類承擔責任”為由否定人工智能責任能力及其配套制度的構建意義。
此外,吳習彧主張由于只有人類才能夠理解“權利”和“責任”的含義,而機器只能被設計成遵守規則,并不能理解規則,即使創設類似于“電子人”的法律人格,機器本身的行為也不是受制于法律規則而是受制于其背后的設計者,所以應當注重智能機器背后設計者的權利和責任,而非機器本身;也有學者以人工智能不具備自由意志為由否定其具備刑事責任能力。以人工智能是否具有責任意識、自由意志為否定理由的論證思路,實質上是將人工智能比對自然人,那么這一命題的否定也只能推出人工智能不能成為類似自然人的法律主體,并不能否定其成為類似法人的非自然人的法律主體。前者的關鍵在于人工智能是否符合自由意志等責任能力的核心要件;后者的關鍵在于人工智能構建責任能力是否更有利于解決法律問題、獲得積極的社會效果。
第三,人工智能是否具備理性能力或自由意志等法律主體的核心要素?持否定說的學者主張人工智能不具有自由意志、欲望、理性能力等法律主體的實質要件。付其運從法理邏輯和實踐兩個層面論述了人工智能的非主體性,其認為非主體性有助于提高人工智能設計者、管理者等人員的謹慎義務,進一步加強權益保護。人工智能的判斷與決策來自數據與算法運算,而數據與算法受控于自然人,人工智能體本身不具備獨立意識。而持肯定說的學者們則主張在目前的技術下,人工智能已經可以通過深度學習完成自身知識庫更新,甚至是算法升級,而算法升級后作出的最終決策和行為已經不受包括程序設計者在內的外界的控制和預測,通過深度學習,智能機器人可以擁有創意和創新。這一問題實質上包含兩個層次,首先需要厘清什么是法律主體的核心要素或認定標準?在假設理性能力或自由意志是成為法律主體的核心要素或認定標準的前提下,再去考察人工智能是否具備理性能力或自由意志?
第四,賦予人工智能法律主體資格是否具有現實意義?包括是否具有現實必要性以及積極的社會價值?其一,人工智能引起的著作權歸屬、侵權歸責等法律問題能否在法律客體論的制度框架內得以解決?其二,賦予人工智能法律主體資格是否更有利于上述法律問題的解決、帶來積極的社會價值?持肯定說的學者主張承認人工智能法律主體地位并建構配套法律制度,具有適應社會發展趨勢的積極意義,是解決自動駕駛汽車撞人引起的歸責難題、生成式人工智能侵權歸責難題等的有效途徑。與之相對,持否定論學者則認為既有的法律制度和規則體系能夠有效解決人工智能帶來的責任認定、產權分配等相關問題,當前階段確立人工智能主體地位不具有必要性。
綜上,學界關于人工智能能否作為法律主體的爭議焦點主要在于以下兩點。其一,人工智能是否具備理性能力、意志、欲望等法律主體的核心要素?其二,人工智能法律地位主體化是否符合現實需要?
(二)法律主體資格核心要素的二元標準
1.理性能力是自然人法律主體的核心要素。理性能力是權利能力的核心要素,也是倫理上的人普遍獲得法律主體資格的法理依據。權利能力具有兩種含義:一是從法律內部視角定義的一個下位概念,是指從法律內部視角來看,法律上的主體需要具備的能力;二是與行為能力相對,作為一種成為法律上主體的資格。本文是在前一種含義上使用權利能力的,權利能力只表示成為權利義務載體的能力,不再具有任何倫理意義。權利能力是倫理人成為“法律上的人”的條件,而倫理上的人普遍具備“權利能力”的正當性依據在于,“人”具有自我立法的意志能力或者說理性能力。理性能力是近代民法確立生物人具備法律人格的法理基礎,例如1804年《法國民法典》即規定了無差別的人類理性是人之法律人格的取得依據。
當提到人因理性能力而具備權利能力時,理性能力指的是什么呢?理性主義的奠基者康德認為“理性”包括理論理性與實踐理性:前者是指認知世界的能力,與《純粹理性批判》中提及的“知性”同義,也稱“認知能力”,即識別事物種類、發現世界運轉客觀規律的能力;后者是指自我立法的能力,也稱“意志能力”,即為自己設置目標和行為準則、自己控制自己行為的能力,是一種自律力。認知能力與意志能力既是倫理主體的基礎,也是倫理上的人得以具備法律主體資格的基礎。
2.現實需要是法人法律主體的核心要素。法人作為法律主體的合理性首先在于經濟上的需求而不是哲學意義上的“正當”,試圖從哲學上為法人尋找依據是無意義的。法人與自然人成為法律主體的依據不同,其所需具備的核心要素也不同。自然人由于具備理性能力等倫理價值,生而具備法律人格,即具備成為法律主體的資格;而法人被賦予法律主體地位是出于社會的現實需要,且需要履行一定手續、符合特定的標準。以最為典型的公司法人為例,被稱為公司的商業組織體的出現遠早于“法人”這一法律概念的出現。正是由于隨著市場經濟的飛速發展,市場中越來越多的商業組織體成立,這些組織體的出現導致原有的法律規范不再能滿足權利保障與歸責的需要,也極大阻礙了市場經濟的進一步擴展,法律才將符合一定條件的商業組織體擬制為“法人”這一法律主體。法人得以獲得權利能力的正當性基礎,是其作為一個歸屬載體在功能上實現了法律關系的簡化與明確,避免了一個組織內多數人為法律主體導致的法律關系的復雜與錯亂。換句話說,正是由于現實中產生了將組織體視為一個整體而參與法律關系的需要以及現實存在,法律才賦予“組織體”權利能力使其成為除“自然人”之外的另一種法律主體,而與哲學上“人”的倫理價值、是否具備“理性能力”無關。
由于不同類型法律主體的核心要素不同,可將法律主體的認定路徑分為自然人路徑與法人路徑兩種類型。自然人路徑是指以理性能力、自我意志等自然人得以具備法律人格的核心要素為判斷標準;法人路徑是指以現實必要性、社會有益性等法人得以具備法律人格的核心要素為判斷標準。人工智能法律主體資格論證路線如圖1所示。
圖1 人工智能法律主體資格論證路線圖
![]()
二
自然人路徑下人工智能法律主體資格的否定
自然人路徑下法律主體資格的核心要素是理性能力,具體包括認知能力與意志能力兩種類型。前者是指理性存在認識事物本質規律的能力,后者是指理性存在基于自我意識而自我立法的能力,這是理性存在者得以具備權利能力的核心要素。僅當人工智能同時達到兩者的判斷標準時,才能從自然人路徑證成人工智能的法律主體資格。
(一)判別式AI與生成式AI:基于技術原理和技術目標的類型劃分
依據技術原理和技術目標的差異,AI演化出兩種差異巨大的技術類型,即生成式人工智能(以下簡稱“生成式AI”)和判別式人工智能(以下簡稱“判別式AI”)。
判別式AI的技術目標是識別與決策(判斷已有的內容),其底層邏輯類似于決策函數y=f(x)或者分布函數P(Y|X),技術目標是對輸入信息進行分類或預測,例如具身智能。除了具身智能外,判別式AI還包括人臉識別、垃圾郵件分類等具有“離身性”特征的傳統人工智能,由于傳統人工智能不具備交互性和自我優化等“自主性”特征,在人工智能法律主體的語境下沒有討論的必要,不屬于本文討論的對象。判別式AI所面臨的法律困境主要是其作出“侵權”的決策和行為后所面臨的責任承擔問題,例如自動駕駛汽車事故的歸責。
生成式AI的技術目標是創造新內容。其先通過數據學習建立樣本的聯合概率密度模型P(X,Y),然后求出訓練數據的概率分布P(X),最后得到條件概率分布預測模型P(Y|X),利用Transformer等算法模型模仿人類創造力,生成不同于原始數據的新內容。其法律困境主要在于所生成內容的權利歸屬及生成內容侵權時的責任承擔。ChatGPT、Deepseek是其典型應用。
判別式AI與生成式AI引發法律主體資格爭議的場景和爭議點截然不同。判別式AI的爭議集中于其作出的侵權行為的責任歸屬,例如自動駕駛汽車撞向其他汽車發生交通事故時,誰是交通事故的責任承擔主體?生成式AI的爭議則更聚焦于其生成內容的權利歸屬及生成物侵權的責任認定。例如用戶通過在ChatGPT上連續輸入指令創作的小游戲,其能否被稱為作品?誰對此享有知識產權?小游戲侵犯他人隱私權和著作權時,誰承擔侵權責任?
(二)人工智能符合認知能力要件
人工智能體在現有技術下所呈現的“識別能力”符合法律上“認知能力”的形式要求。根據歐盟2024年3月發布的《人工智能法案》,人工智能現已具備較為成熟的生物識別與情緒識別能力,前者是指“自動識別人的身體、生理和行為特征,如面部、眼球運動、體形、聲音、伴音、步態……擊鍵特征等,目的是通過比較個人的生物識別數據和參考數據庫中存儲的個人生物識別數據來確定個人身份”的能力,并且可以“根據生物識別數據將自然人歸入特定類別”。后者是指“根據自然人的生物識別數據識別或推斷其情緒或意圖的人工智能系統。這一概念指的是快樂、悲傷、憤怒、驚訝、厭惡、尷尬、興奮、羞愧、蔑視、滿意和愉悅等情緒或意圖”。用以識別的生物識別數據可以是“基本的面部表情,如皺眉或微笑,也可以是手部、手臂或頭部的動作,還可以是一個人的聲音特征,如高聲或低聲說話”。概言之,人工智能的生物識別與情緒識別是人工智能系統基于生物特征數據及大數據庫所作出的推理判斷,其基本原理是,基于算法和大數據模型建立y=f(x)函數,從而實現當出現x(例如眼球數據)可以聯想到y(例如特定身份)。由于人工智能的“識別能力”來自數學函數,相對于生物人所具有的“認知理性”,只有形式上的“知覺”而缺乏“感覺”,因而不具備任何倫理價值。但人工智能的形式“認知”不影響其符合同樣剝離了倫理價值的權利能力意義上的“認知能力”。
(三)人工智能缺少自我立法的意志能力
人工智能不具備自我立法的意志能力。現有技術下生成式AI只能作為帶有自動性能的工具完成任務,而無法像“主體”一樣具有自己內生的“目的”,即使人工智能完成任務目的的過程具備自動性、結果具備創造性,其完成的只是他者的目標而不是自己的目標。人工智能基于深度學習和Transformer等算法所具備的推理、決策乃至生成“新”內容的能力,只是技術理性的表現。人工智能的行為以研發者的預先設計為“準則”,以使用者的指令為“目的”,其本身不具備自我意識、目的理性和自我立法的能力。
自然人路徑下的人工智能因無意志能力而不具備權利能力,因而暫不符合法律主體資格的要求。但自然人路徑下的理性能力并不是法律主體的必要要件,人工智能作為非生物人實體,其法律主體地位的獲取更類似法人而不是自然人。若人工智能符合法人路徑下法律主體資格的核心要素,也應當賦予其法律主體資格。
三
法人路徑下人工智能法律主體化的場景劃分及論證層次
當代法律主體資格的確立與自我意識、理性能力等倫理價值不再緊密相關,法律主體的認定標準從自然人的倫理價值轉向法人的工具價值。與自然人因自然理性、人格尊嚴等倫理價值而天然具備法律主體地位不同,法人等非人實體獲得法律主體資格主要是出于現實生活的需要,如公司法人的創立主要是經濟高速發展的社會現實下,法律調整和適應現實生活的手段。若賦予人工智能法律主體資格具有現實必要性或者能給社會秩序帶來顯著的積極價值,就能賦予人工智能法律主體地位;反之,則不能。
(一)侵權與權屬:法律主體化的潛在場景
人工智能所涉法律問題主要出現在侵權責任承擔和人工智能生成物知識產權歸屬兩個場景。法律主體,即法律上權利義務責任的歸屬者,其所涉法律問題包括權利問題與責任問題。一方面,責任類型分為侵權責任與違約責任,違約責任的承擔前提是主體之間達成了“合意”從而具備履行約定的義務,人工智能由于暫不具備達成“協議”所具備的主觀要件而無法產生違約責任的法律關系,因此人工智能所涉責任類型僅包括侵權責任。另一方面,當從是否有必要賦予人工智能法律主體資格的角度來討論法律主體所涉及的權利問題時,急需討論的是現有法律框架下人工智能所引起的權屬分配困境,而非假設人工智能被擬制為法律主體后可能被賦予的名稱權、財產權等權益。由于人工智能本身的權利歸屬在現有物權或者知識產權框架下較為明確,人工智能所涉權利歸屬問題只可能是人工智能生成物的權利歸屬;又因人工智能生成物為無體物,不涉及物權問題,人工智能生成物所涉權利主要為著作權、專利權等知識產權。對此,本文基于對現有研究主題的統計分析進行經驗反證,在中國知網以“人工智能+法律主體”為主題詞檢索現有文獻,并對檢索結果進行同義詞合并處理,得到人工智能與法律主體所涉法律問題主要為“自動駕駛汽車侵權責任”“人工智能生成物著作權的權利歸屬”“人工智能生成物著作權侵權”三大類。
判別式AI的常見應用場景是自動駕駛、醫療輔助等,由于其不“生成”內容,因而不涉及“生成內容”權益歸屬問題,涉及的主要法律問題是侵權責任分配,即因人工智能自動決策而侵犯他人權益時,侵權責任由誰承擔的問題。
而生成式AI的法律問題主要是以“生成內容”為核心的著作權歸屬及生成前、生成后的侵權問題。生成式AI輸入端在收集訓練數據時可能涉及侵犯他人知識產權、隱私權等問題,由于AI爬取數據的行為處于研發者、人工智能服務提供者的可控制范圍內,理應由研發者、人工智能服務提供者承擔與其角色定位相適應的“主體責任”,其法律困境在于如何通過構建人工智能訓練語料的合理使用制度,實現AI對訓練數據的大規模需求與數據在先權利者之權利保護的平衡,其與是否賦予人工智能法律主體資格無關。而輸出端的內容主要牽涉三方:一是研發者的先前創作行為或者說預訓練行為;二是使用者下發的指令及輸入的數據信息;三是人工智能基于深度學習算法所建立的模型的作用,但基于算法黑箱性,最終基于算法與數據可能形成什么模型,以及該模型面對使用者的要求可能輸出什么具體內容,是使用者與研發者都無法預測的。由于輸出端內容無法預測、不可控制,研發者和使用者都不是所輸出內容權益的當然享有者或者所涉責任的當然承擔者,此時人工智能由于算法黑箱性在其生成物內容上表現出某種“創造”的形式外觀。
綜上,判別式AI因不生成新的內容而不涉及權利歸屬問題,僅涉及侵權責任承擔問題;生成式AI主要在內容輸出端涉及侵權問題和生成物的權益分配問題。
(二)必要性和有益性:現實需要的論證層次
法人路徑下法律主體資格的核心要素是現實需要。“現實需要”的證成包括必要性與有益性兩個層次。一方面,若現有問題在法律客體框架下無論如何修改都無法解決,那法律主體化就是必須的(此處所說的主體化包括有限主體、電子人等所有超越客體的解決方案);相反,若司法實踐及學界爭議中所提出的現有法律問題,在法律客體論下微調現有法律框架即可解決,則人工智能法律主體資格就無必要性。另一方面,非必要性并不是證否人工智能法律主體資格的充分條件。當賦予人工智能法律主體資格更有益于解決現有問題(變動收益大于變動成本)、更符合社會利益時,也可以證成人工智能法律主體資格;相反,若賦予人工智能法律主體資格于解決法律問題無益,或具有消極社會效果,則無需賦予其法律主體資格。
綜上,法人路徑下人工智能法律主體資格是否具有現實需要的討論,可以具體到侵權責任歸責難題與生成物權利歸屬困境兩個場景。每個場景均從以下兩方面分析:一是有益性,即賦予人工智能法律主體資格是否有益于解決相關法律問題;二是必要性,即相關法律困境在法律客體論制度框架下能否解決。
四
侵權場景下人工智能法律主體資格之否定
侵權場景下的AI類型包括判別式AI與生成式AI,兩者引起責任歸屬難題的技術原理有所差異,需要分別討論:判別式AI侵權的典型場景是高度自動駕駛技術(L4級以上)引起的交通事故歸責問題,生成式AI侵權主要指人工智能生成物侵權。
(一)判別式AI法律主體資格否定
自動駕駛技術作為當前深度影響人們生活的具身智能,其所具備的前沿性和典型性使得對其法律主體資格的分析可以擴展到所有具備相同原理的判別式AI的應用場景中,所有符合具身智能的判別式AI都可能遇到相同或相似的法律問題,例如智能導盲犬、物流無人機等。以下將以自動駕駛汽車交通事故侵權場景為例,探討判別式AI侵權問題能否在現有法律框架下解決,以及賦予其法律主體資格是否有益于解決現有問題。
1.自動駕駛侵權案件的歸責難題及成因。自動駕駛汽車侵權案件對現有歸責體系的挑戰在于,人工智能的自主決策能力與算法黑箱性將導致原有責任主體的“過錯”認定困難,從而造成法律主體的缺失。現有法律預設“駕駛人”作為理性存在能夠自主作出決策、實施自主行為,并為自身基于意志自由作出的過錯行為承擔責任后果,即以駕駛人過錯為責任承擔的基本原則。而自動駕駛技術的目標是逐漸消除駕駛員的控制,最終人類駕駛員將汽車的控制權完全讓渡于AI系統,例如德國2021年頒布的《自動駕駛法》允許L4級自動駕駛車輛在德國公共道路上的指定區域內行駛;《深圳經濟特區智能網聯汽車管理條例》規定完全自動駕駛車輛(L5)可以不配備駕駛人,并在劃定區域和路段行駛。由此導致原有的基于駕駛人過錯為基本預設構建的機動車交通事故責任規則下應當由駕駛人承擔的責任,缺少對應的責任主體。
自動駕駛技術的自主決策使得過錯責任之下原本以駕駛人為行為及責任主體、以車為工具的交通事故責任分配機制,難以解決人工智能時代由于“自動駕駛系統”代替“人類駕駛員”從事道路選擇、速度調適、避險等原人類駕駛員需要作出的決策及行為而導致的責任主體缺位的問題。那么,賦予自動駕駛法律主體資格能否解決這一問題呢?
2.自動駕駛汽車法律主體化無益于解決歸責困境。目前關于自動駕駛汽車法律主體化的探討主要聚焦兩種模式:法人制度型與電子雇員型。前者通過保險、基金等方式為自動駕駛汽車設立專門的獨立賬戶,由自動駕駛汽車自主承擔賠償責任,當自動駕駛汽車法人的資產無法承擔責任時實行破產制度;當汽車實質處于非自動駕駛狀態時,則視情況選擇“刺破法人面紗”。后者將自動駕駛汽車視為電子打工人或“電子奴隸”,參照雇主責任,將自動駕駛汽車的所有者視為自動駕駛汽車的雇主,雇傭期間的侵權損失由雇主代替賠償。
第一,法人模式在解決自動駕駛事故侵權責任方面存在三重矛盾。一是資金來源悖論。無論通過保險、基金等制度設計如何轉嫁,自動駕駛汽車的財產源頭仍是購買者(所有人)、生產者或銷售者等自然人或法人主體。關鍵在于,建立基金與保險等風險分散機制本身無需且不依賴于賦予自動駕駛汽車法人地位。二是程序簡化假象。將自動駕駛汽車視為法律主體,其仍然要面臨與傳統駕駛人相似的責任認定。唯一可能簡化的環節是區分生產商、銷售者的產品責任與用戶過錯(駕駛人操作失誤),這完全可以直接通過優化該場景下的產品責任規則實現,無需賦予自動駕駛汽車法人資格。三是救濟不足風險。若自動駕駛汽車破產,將導致遭受重大事故的受害人救濟不足;若在使用者過錯或產品存在缺陷情況下需“刺破法人面紗”,則仍需走傳統的機動車責任、產品責任的認定步驟,證明用戶過錯與產品缺陷,且增加了設立法人賬戶、管理保險基金以及主客體變化帶來的額外制度成本與適應成本。
第二,電子雇員模式下責任完全由用戶承擔,甚至減輕了生產者與銷售者在傳統機動車交通事故責任背后的產品責任。一方面,該模式可能由于極大增加了使用者的責任成本而降低消費者的購買欲望,長期來看仍然會降低生產者的研發動力。并且這一顯著增加用戶責任的制度設計對本就處于弱勢的用戶顯著不公平。法律制度的設計不僅要保證社會效益,更要維護與引導社會分配的公平。另一方面,這種直接由用戶承擔侵權責任的責任分配制度,在法律客體框架下可以直接通過現有法律規定實現,而無需賦予人工智能法律主體資格。
綜上,賦予自動駕駛汽車法律主體資格所帶來的有限“程序簡化”技術價值,遠低于其引發的制度變動成本及可能的救濟不足、責任失衡等衍生風險。為維護法律制度的穩定性與可預期性,應當保持自動駕駛汽車的法律客體地位。
3.法律客體論下自動駕駛事故歸責的可行路徑。自動駕駛汽車(L4及以上)事故責任可將生產者和銷售者納入責任主體范圍。德國、歐盟以及我國深圳市的相關立法均體現了這一思路。例如德國《道路交通法》《自動駕駛汽車交通倫理準則》規定司機、車主和汽車制造商同為事故風險承擔者。自動駕駛公司在進行商業化運營時,必須為高度自動駕駛汽車購買責任險,以此承擔相應事故責任。《深圳經濟特區智能網聯汽車管理條例》規定,完全自動駕駛的智能網聯汽車在無駕駛人期間發生交通事故造成損害,屬于該智能網聯汽車一方責任的,由車輛所有人、管理人承擔賠償責任;因智能網聯汽車存在缺陷造成損害的,可依法向生產者、銷售者請求賠償。
作為具備技術理性的實體,自動駕駛汽車在產品質量合格的情況下具備遵守交通規則和特定緊急場景下規避風險的能力。其交通事故的責任分配可依據成因劃分為三種情況:其一,因質量缺陷導致事故,先根據《中華人民共和國道路交通安全法》分配責任,對于由自動駕駛汽車一方承擔的責任,再根據產品責任向生產者或銷售者追責;其二,因不可抗力或突發情況引發事故,此類風險超出車輛設計應對能力,與自然人駕駛場景的風險是一樣的,應當由車輛所有人、管理人或使用人按照風險自擔的原則承擔責任;其三,因使用者操作失誤引發事故,應由操作失誤的用戶(駕駛人)承擔責任。對于無駕駛人的全自動駕駛汽車,邏輯上只存在前兩種情況。
綜上,賦予以自動駕駛汽車為代表的符合具身智能定義的判別式AI法律主體資格,并無助于解決其侵權困境,反而增加了額外的制度成本和變動風險。判別式AI侵權場景下的責任分配,可通過優化具體場景下的過錯責任、產品責任的認定規則,將AI研發者、生產者或銷售者納入責任主體范圍,并輔以保險、基金等配套風險分散機制予以規制。
(二)生成式AI的法律主體資格否定
本部分聚焦生成式人工智能輸出端的生成物侵犯他人知識產權、隱私權或名譽權的糾紛(以下簡稱“生成物侵權”),這是生成式AI侵權區別于一般侵權和判別式AI侵權的特殊侵權歸責困境。除了生成物侵權外,生成式AI還涉及兩類侵權糾紛:一是輸入端的侵權行為,即生成式AI預訓練數據侵犯他人知識產權與隱私權的糾紛,此類法律糾紛的責任主體較為明確,由于預訓練時人工智能可用的數據處于研發者控制之下,應當由研發者承擔相關責任,不屬于由人工智能引起的侵權難題;二是輸出端的生成物被其他人盜用引起的侵權糾紛,這與本部分探討的由人工智能引起的侵權歸責困境不同,其本質是智能體生成物是否應受保護及其權益歸屬問題。
1.生成式AI侵權糾紛的歸責難題與成因。生成物侵權歸責的核心困境在于,由于AI生成過程的高度自主性與輸出內容的不可預測性,一方面導致“行為—結果”責任鏈斷裂,侵權結果難以追溯至特定主體的“過錯行為”;另一方面無法確定生成物的實際控制方,研發者和用戶等潛在責任主體均對生成物具備一定影響力,但因“算法黑箱”而均無法形成完全控制。由于人工智能憑借深度學習算法具備“自適應性”,能持續學習并優化自身算法模型,且算法黑箱存在不可預測性,所以即使研發者能夠設計算法模型、篩選預訓練數據并設置安全規則,但無法預知用戶指令觸發的具體輸出。同時,用戶能通過輸入指令把控生成式AI輸出內容的大致方向,比如“寫一篇200字以內的對廣州風土人情的簡介”,但對AI基于指令輸出的具體內容無法預知和控制,這導致行為人對后果具有預見性或控制力這一過錯責任原則的適用前提難以認定,責任主體難以明確。
2.法律客體框架下的生成式AI侵權糾紛的規制路徑。第一,由人工智能技術服務的提供者和研發者承擔嚴格責任。生成式AI的研發者可通過優化輸入端預訓練數據質量、構建負面內容過濾清單、強化算法倫理等措施從源頭上控制風險,其具備最大限度地降低侵權風險的技術能力和義務。例如設置拒絕回答侵權隱私的問題,以“Chat人工智能生命體”這一聊天機器人軟件為例,當向其咨詢“XX(某演員)是gay嗎?”時,其回復為“抱歉,我無法提供他人的私人信息。我們應該尊重每個人的隱私和個人生活選擇,避免對他人進行無端的猜測和臆斷”。一方面,對于純由生成式智能體一方過錯導致的侵權行為,若研發者能通過預訓練數據的凈化與算法規制予以控制,那么AI研發者或者AI服務的服務提供者作為AI生成物侵權行為的實際控制者,理應承擔相應的控制風險義務與侵權責任。另一方面,如果人工智能的侵權行為風險是研發者或者服務提供者無法通過設置安全規則事先預防和控制的,作為生產者,不能將無法控制風險的產品投向市場,否則其作為收益最大者,基于“收益—風險”一致原則,也應當由其承擔可能侵權的責任。第二,用戶僅在存在重大過失或者故意的情形下承擔過錯責任。但前提是,AI研發者和服務提供者在AI研發的前端已盡到注意義務并依法設置了安全措施。普通使用者對于AI生成的內容不負有注意和監督義務。
3.賦予生成式AI法律主體資格不利于解決現有糾紛。賦予生成式AI法律主體資格,不但無助于化解前述歸責難題,反而會增加制度成本和程序障礙。首先,人工智能缺乏獨立資產基礎,其資產主要源于研發者、用戶及生成物版權費,但生成物版權費的獲取需以生成物可版權化并且版權歸生成式AI所有為前提;其次,生成物侵權后的技術修正仍需研發者介入,表明研發者對生成內容具有實質控制力;最后,人工智能對于“資產”無“占有欲望”,由其承擔侵權責任無法通過經濟懲戒形成有效約束,反而增加社會成本。因此,在生成式人工智能侵權場景下,將責任歸于研發者或服務提供者,使其基于產品責任或服務管理義務框架履行內容審查和技術修正義務,更為合理和可行。
綜上,判別式AI和生成式AI的侵權歸責問題均可在現有法律客體制度下進行制度優化解決。核心思路是,將生產者、銷售者等對AI具備實際控制力且通過技術應用獲取巨大收益的主體,基于權責對等原則,通過產品責任、服務管理責任等制度,納入責任承擔主體范圍。并且,基于賦予人工智能法律主體資格的“思想實驗”,賦予判別式AI和生成式AI法律主體資格并不能解決其在現有法律問題中的核心爭議,反而會因歸責主體增加使責任分配更加復雜。因此,侵權場景下,賦予人工智能法律主體資格既無必要也無益處。
五
權利歸屬場景下生成式AI法律主體資格之否定
AI在生成內容時的作用,遠不同于筆記本、畫筆等傳統工具。傳統工具由人類全程控制輸出結果,而AI使用者在輸入指令后,生成過程由深度學習算法自主完成,其內容具有不可預測性。人類僅設定初始框架,具體表達形式、細節組合均由AI模型通過數據訓練形成的邏輯路徑獨立生成。這種“弱控制強自主”特性導致傳統著作權法面臨三重困境:其一,人類在構思輸入與最終成果間的貢獻度難以量化;其二,算法自主生成內容是否構成“獨立創作”缺乏判定標準;其三,既有“人類智力成果”要件無法解釋AI模型通過數萬億參數重組信息的行為本質。那么,是否需要以及能否通過賦予AI法律主體資格解決人工智能生成物著作權的問題呢?
(一)賦予生成式AI法律主體地位無益于解決現有法律爭議
首先,假設人工智能具備法律主體資格,其生成物的著作權認定將面臨雙重困境。一是獨創性標準難以界定。需在研發者的預訓練、使用者的提示及人工智能依據算法的自動生成之間劃分貢獻,與人工智能客體論相比,不僅未簡化問題,還把AI拉入了“貢獻”爭奪戰。二是著作權收益分配存在邏輯矛盾。目前人工智能不具有自我意識,資產等收益對其來說無意義,其作為作者所得收益最終仍是分配給自然人。并且AI作者收益背后的可能受益主體一般是AI所有者或研發者,而較少可能分配至只對AI有使用權但無實際控制力的使用者。
其次,法律主體論下AI生成物的權益分配面臨兩個新的問題。一是AI的著作權與使用者對生成物的實際控制權之間的矛盾;二是AI研發者或所有者作為可能的最終受益人與AI使用者之間權益分配不公的矛盾。對于僅輸入簡單提示或無提示即可生成的內容,賦予AI著作權不利于AI生成內容的公共流通及AI的普遍應用,有損公共利益;而對于需要輸入復雜提示和反復調試才能生成的內容,其生成的內容寄托了使用者的設想與構思,若完全歸屬于AI,對于使用者不公。理論上,可以采用AI與使用者共同所有的模式,但將顯著增加制度成本與執行成本。
最后,著作權法的核心目的是通過保護“自然人的創造性努力”激勵自然人創新,賦予人工智能法律主體資格無法實現這一目標。第一,現有技術下人工智能缺乏自主意識,無法因“激勵”手段而促進其創作,而當AI具備自主意識時,人類恐怕再不能期待其遵守人類制定的規則;第二,從激勵效果來看,承認AI的作者身份對使用者會構成創作阻礙(自身與AI合作創作的產品可能被視為AI的作品),對研發者或所有者作為可能的最終受益人具備短期的激勵作用,也將因使用者積極性下降而減弱,長期來看不利于AI的研發創新與推廣應用。
由此可見,賦予人工智能法律主體身份,不僅沒有解決原有的法律爭議,還會帶來更多的法律問題與制度成本,并且既無益于著作權法本身的創作激勵目的,也無益于人工智能技術的研發應用。
(二)生成式AI生成物權益分配的司法分歧
生成式AI的權益分配主要涉及兩點:生成內容是否屬于作品、生成內容的權利歸屬。我國司法實踐對此存在顯著分歧,典型例證為“菲林案”與“Dreamwriter案”的同案不同判現象。
第一,關于智能軟件生成物是否構成作品。以首例人工智能生成物著作權糾紛“菲林案”為例:某律所在微信公眾號發表了一篇人工智能程序生成的文章,被某公司在網絡平臺擅自轉載。法院認為,智能軟件生成的圖形因不具有獨創性而不構成作品;智能軟件生成的文字具有獨創性,但由于不包含“自然人的創作”而不構成文字作品。然而,“Dreamwriter案”的法官則認定涉案文章在形式上具備獨創性要求,生成過程也符合創作者的個性化選擇、判斷與技巧等獨創性的實質要件,“該文章的特定表現形式及其源于創作者個性化的選擇與安排,并由Dreamwriter軟件在技術上‘生成’的創作過程均滿足著作權法對文字作品的保護條件”,屬于《中華人民共和國著作權法》(以下簡稱《著作權法》)所保護的文字作品。
兩例AI生成物著作權案件揭示司法審查標準的深層分歧。“菲林案”內部的判斷邏輯存在雙重標準:對同一軟件生成的分析報告與數據圖形,法院采用差異化審查標準,文字部分因“數據選擇與判斷分析”被認定具有獨創性,而同樣因“數據選擇和判斷分析”產生差異性的圖形則被否定獨創性。“Dreamwriter案”中,審理法院以創作結果上符合“最低獨創性的形式要件”和創作過程上符合“自然人的創造性努力的實質要件”共同作為獨創性的判斷標準。由此可見,關于人工智能生成物能否作為作品的首個爭議是,何為獨創性的判斷標準?“菲林案”中,法院以創造結果上符合作品的形式要件作為具備獨創性的充分條件;而“Dreamwriter案”則要求“創造結果上符合作品的形式要件”+“創造過程上自然人的個性化選擇與安排符合創造性努力的實質要求”。
目前實踐中普遍采用第二種標準,隨之產生第二個爭議,即AI使用者輸入提示詞的行為是否屬于“創造性努力”?2023年的人工智能生成圖片侵權案(以下簡稱Stable Diffusion案)為此提供了司法樣本。該案審理法院認為,使用開源軟件Stable Diffusion創作的圖片體現了使用者的個性化表達,具備作品的“獨創性”要件,即法院將AI生成物視為使用者創造性表達的作品,而生成式AI是協助人類完成作品的工具。但在與Stable Diffusio案案情相似、同為AI生成圖片著作權糾紛案的美國“空間歌劇院”注冊案(Théatre D'opéra Spatial)中,美國版權局卻認為使用者“輸入生成該圖像的文本提示”的行為不足以構成對所生成圖形的“創造性貢獻”,該圖像的內容最終取決于智能軟件如何處理使用者的提示。使用者提示的功能更接近于建議而不是命令,類似于客戶雇用藝術家創建圖像并對其內容進行大致指導的情況。
按著作權“思想與表達二分”原則,傳統法律概念下的創作是作者先有創作的思想,然后自主選擇表達,最后形成作品。為保護創作者的表達自由,著作權法“只保護表達,不保護思想本身”。而人工智能生成物的創作中,用戶只提供創作思想,表達由AI基于算法模型與數據生成,并隨著反復修改輸入提示詞不斷調整,直到最后用戶表示“這就是自己想要的表達了”才最終成型。我國“菲林案”法院對圖片作品的否定理由適用了“思想與表達二分”的例外原則—“思想與表達合并”。我國StableDiffusio案與美國版權局作出的決定都是遵循“思想與表達二分原則”的結果,兩者的區別在于美國版權局認為具體的表達是由AI作出的,人只對自身操作AI的步驟編輯享有作者權益。而我國法院則認為自然人在AI上輸入提示等行為構成“對生成內容的表達”,AI只是使用者“表達”的工具。
(三)法律客體框架下生成式AI生成物權益分配的可行路徑
英國《1988年版權、外觀設計和專利法》是世界上第一部給予AI生成物版權保護的法律,其第9條第3款規定計算機生成作品的作者應當是“為創作該作品作出必要安排的人”,第178條規定保護“由機器在沒有人類創作者的情況下生成的作品”。歐盟則提出,對AI輸出是否有原創性的判斷,應當綜合考慮人類作者在生成過程的構思、執行、編輯確定三階段的創造性貢獻:構思階段以人類作者的創造性選擇為主;執行階段以AI算法模型的運作為主,人類作者也可以創造性地輸入提示詞以引導AI生成輸出;人類創作者在編輯確定階段對生成的最終輸出有多種選擇;鑒于AI的“算法黑箱”特性,人類使用者可能無法預測執行階段的結果,但只要輸出保持在作者的一般創作意圖范圍內,就可將AI生成內容視為人類用戶的表達。因此,歐盟委員會認為,AI輸出由人類組織發起,并隨后以創造性方式編輯的作品,該輸出內容可以成為受版權保護的作品。參照各國立法、司法實踐,本文擬就智能生成物權益保護及其歸屬問題提出以下建議,并說明每條建議的考量因素及正當性基礎。以建議內容為依托,一方面,以給出解決建議的方式證明法律客體論下可以解決人工智能引起的權益歸屬難題;另一方面,通過假設的方式,論證賦予人工智能法律主體資格不僅無益于反而有可能破壞擬實現的立法效果。
其一,純由AI自主生成的內容不宜納入著作權保護范圍。為促進AI在生成新的知識方面的作用,建議將純由AI自主生成的內容保留在公共領域,以保證其他人低成本地訪問使用。然而,假設賦予人工智能法律主體資格,從法理的角度應當賦予智能體對其自主生成內容的版權保護,將極大增加人們使用人工智能生成物內容的成本,不利于知識在人類世界的流動、使用與創新。
其二,AI使用者對于智能體生成物的內容具有創造性意圖及創造性貢獻的,可將智能體生成物的內容視為AI使用者的作品;但對于帶有作者創造性表達的AI生成物的版權保護,不可妨礙他人正當使用AI生成相關內容,即其他使用者仍保有使用AI生成類似內容的權利,只要不與該生成物完全一樣即可。上述創造性意圖,是指使用者表達想法與感受的意圖,可根據使用AI所生成內容來推斷;上述創造性貢獻,是指使用者在AI生成相關內容時的參與程度,需要全面評估整個生成過程來判斷,考慮因素包括指令和輸入提示的數量與內容、生成嘗試次數、可供選擇是否多個等方面。使用者實際具備“創造性意圖”或“創造性貢獻”,AI實際上只是其表達自身思想感受之工具的,生成物因具備創造性表達而符合《著作權法》規定的“獨創性”要求,則可以作為作品保護,權益歸作出獨創性貢獻的使用者所有。然而,假設賦予人工智能法律主體地位,那么,除了要判斷AI使用者是否對生產內容具備創造性貢獻,還需判斷AI是否具備創造性貢獻,以及考慮AI使用者與AI之間在創造性貢獻及版權利益方面如何分配的問題。總之,賦予人工智能法律主體資格不僅沒有減少權益分配難題中的分配步驟,還因AI加入了“權益爭奪戰”而使得問題更加復雜。
綜上可得,現有技術下賦予人工智能法律主體資格,既無必要也無益處。人工智能技術應用所引起的侵權責任、權益分配等法律問題均可在人工智能法律客體論的規范框架內得到合理解決。賦予其法律主體資格無益于解決現有法律問題的核心爭議,并且主體數量的增加反而導致責任及權益分配更加復雜。人工智能目前所引起的權益及責任糾紛的本質,仍然是責任與權利在相關自然人之間如何分配的問題,而不是由人工智能這一工具性技術及其應用實體來承擔。
六
結語
無論是在自然人路徑還是法人路徑下,人工智能均未達到法律主體資格的認定標準,在現有技術程度下不應賦予人工智能法律主體資格。自然人路徑下的人工智能因無意志能力而不具備法律主體資格。人工智能基于深度學習和Transformer等算法所具備的推理、決策乃至生成“新”內容的能力,只是技術理性的表現;人工智能一切行為都以研發者的預先設計為“準則”,以使用者的指令為“目的”,其本身不具備自我意識、目的理性和自我立法的能力。
法人路徑下賦予人工智能法律主體資格既無必要性也無益處。一方面,賦予人工智能法律主體資格,不僅無益于解決現有法律問題的核心爭議,反而由于增加主體而將問題復雜化,并帶來了智能體背后的責任與利益分配等新難題。另一方面,現有技術下人工智能技術應用引起的主要法律困境無需通過賦予人工智能法律主體資格也能解決。依據產品責任等歸責原則,將人工智能生產者或銷售者、服務提供者等對人工智能具有實際控制能力且實際享有人工智能技術收益的主體納入責任承擔的主體范圍,即可較為合理地解決由人工智能引起的侵權歸責困境;關于智能生成物保護及權屬問題,考慮到促進知識流動、激勵創新及生成物實際控制者等因素,對于完全由人工智能自主生產的內容不宜過早納入版權保護;對于使用者投入創造性勞動而生成的內容,符合作品條件的,可考慮以AI使用者為“作者”。
自然人路徑下,當人工智能具備自我立法能力時,具體來說,能夠內生出“目的”而不再只以自然人的“指令”為行為指向時,人工智能才具備意志能力,從而符合理性法律主體的要求。而當人工智能具備自我意識得以自我立法時,賦予其法律地位是否還有意義,或者說其是否還會遵從人類的法律?同理,法人路徑下,當智能體不具備自我意識時,責任與收益本身對智能體來說無任何警戒或激勵作用。并且,應當由智能體承擔的責任或享有的收益,最終仍要通過一定機制分配至自然人或法人,那么不如直接分配至相關自然人或法人主體,而無需增加“人工智能體”參與分配的程序。
-向上滑動,查看完整目錄-
《河南財經政法大學學報》2025年第5期目錄
【法治中國】
1.我國新就業形態立法構想
李雄
2.行政復議前置條款的規范解釋
章志遠、肖嘉欣
3.從自我優待到自我規制:數字平臺反壟斷合規的治理之策
黃茂欽、徐玉津
【數字法學】
4.數據產權配置的三重視角:個體、社會與體系
申衛星、李卓凡
5.新興人工智能法律主體資格的否定
——基于自然人路徑與法人路徑的雙重證偽
陳玥
【司法制度】
6.論作為標識性概念的“檢察機關法律監督”
付盾
7.先訴抗辯權的分階程序構造
——以其雙重屬性再定位為視角展開
司吉梅
【部門法學】
8.“權證分離”背景下非法采礦罪的法益重構與出罪判斷
董玉庭、白宇辰
9.國際法語境下反制措施的適用條件和實施要求探析
左海聰、楊越毅
10.繼續履行請求權行使“合理期限”的反思與重構
王睿
11.秦漢簡牘中所見的誠信訴訟
程政舉
【筆談】
12.《民法典》頒布五周年之居住權制度實施問題(筆談)
曹守曄、喬曉陽、江必新等
《河南財經政法大學學報》是由河南財經政法大學主辦的法學類專業學術期刊。1986年創刊,2012年由原《河南省政法管理干部學院學報》更名為《河南財經政法大學學報》。本刊秉承“格物致知、明禮弘法”的辦刊理念,堅持辦刊的學術性,追求學術創新,嚴守學術規范,關注法學理論和實踐中的前沿問題、熱點、難點問題及其背后的深層次法理研究,注重制度建設;包容不同學術觀點和學術思想。
點擊進入下方小程序
獲取專屬解決方案~
責任編輯 | 郭晴晴
審核人員 | 張文碩 張科
本文聲明 | 本文章僅限學習交流使用,如遇侵權,我們會及時刪除。本文章不代表北大法律信息網(北大法寶)和北京北大英華科技有限公司的法律意見或對相關法規/案件/事件等的解讀。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.