【作者】黃慧敏(中國政法大學國際法學院/涉外法治學院博士研究生)
【來源】北大法寶法學期刊庫《中國政法大學學報》2025年第5期(文末附本期期刊目錄)。因篇幅較長,已略去原文注釋。
![]()
內容提要:涉外人工智能侵權行為的特殊性給現代涉外侵權沖突規范帶來前所未有的挑戰。現行涉外侵權沖突規范適用于涉外人工智能侵權案件時,暴露出特殊侵權識別標準的模糊性、侵權行為地認定的不確定性、強制規性規范判斷標準的缺失以及公共秩序保留范圍的模糊性等偏差。盡管如此,中國現行涉外侵權沖突規范憑借其技術中立性與體系包容性,仍能為涉外人工智能侵權提供法律適用基礎,短期內并無單獨制定涉外人工智能侵權沖突規范的必要性和緊迫性。針對涉外人工智能侵權的法律適用偏差問題,應對涉外侵權沖突規范的核心規則進行解釋和重塑,以更好地應對人工智能技術所帶來的法律適用難題。
關鍵詞:人工智能;涉外侵權;沖突規范;法律適用;準據法
目次 一、問題的提出 二、涉外人工智能侵權的特殊性 三、涉外人工智能侵權的法律適用偏差 四、中國涉外人工智能侵權法律適用的調適路徑 五、結論與展望
一
問題的提出
隨著人工智能技術的不斷發展和跨國應用的不斷加深,其引發的民事侵權風險已突破地域限制,呈現出全球化的新態勢。人工智能的自主性、不可解釋性等技術特征對既有的侵權責任體系構成嚴峻挑戰。在涉外人工智能侵權場景中,現行侵權沖突規范的局限性日益凸顯。如何在技術創新和受害人保護之間取得平衡,并有效應對因各國法律價值取向的分歧所導致的侵權法律適用沖突,已成為國際私法領域亟需回應的重要議題。
放眼全球,國家之間人工智能發展政策和立法價值取向的差異深刻影響著各國人工智能侵權體系的構建方向。以美國為例,其立法傾向于在既有法律框架內對人工智能侵權責任做出擴張解釋,以鼓勵技術創新。例如,內華達州2011年通過的《自動駕駛車輛法案》明確了車輛原制造商僅對原始制造缺陷承擔責任,經第三方改裝的自動駕駛系統制造商不承擔改裝所致的損害責任。與之形成鮮明對比的是巴西,該國致力于突破傳統侵權責任框架的束縛,構建體現受害者保護傾向的侵權責任規則。巴西《人工智能法案(草案)》規定,高風險人工智能系統的提供者和使用者承擔嚴格責任,并推定其在損害方面存在過錯。可見,不同國家人工智能立法價值差異導致的侵權規則碎片化,不僅會增加跨國人工智能企業的成本,還可能誘發監管套利風險。與此同時,各國法院在處理涉外人工智能侵權案件時,既要應對缺乏統一沖突規范帶來的不確定性,又需平衡技術創新保護與受害人救濟的價值沖突。
我國始終秉持發展與規制并重的治理理念,已逐步構建起分層遞進的人工智能立法體系。自2017年國務院印發《新一代人工智能發展規劃》確立人工智能發展“三步走”戰略以來,我國的人工智能發展政策呈現出從技術研發到產業應用逐步深化的趨勢,形成了覆蓋人工智能全生命周期的政策體系。2023—2024年國務院連續將人工智能法列入立法計劃,意味著中國的人工智能立法進入系統立法攻堅期。借此契機,國內學者起草了《人工智能示范法(專家建議稿)》《人工智能法(學者建議稿)》,并對人工智能民事侵權責任作出了原則性規定,為涉外侵權準據法的討論留下了接口。在這一背景下,深入探討涉外人工智能侵權的法律適用問題具有現實意義。為此,本文旨在聚焦現行侵權沖突規范在涉外人工智能侵權中的法律適用偏差及其調適路徑,以期為我國的司法實踐與立法完善提供參考。本文首先剖析涉外人工智能侵權的特殊性;繼而分析現行侵權沖突規范在涉外人工智能侵權案件場景中暴露出來的適用偏差;本文最后立足于中國“發展與規制并重”的人工智能治理理念,提出中國無需單獨制定涉外人工智能侵權沖突規范,而是在解釋論層面對現行侵權沖突規范的核心規則進行解釋和重塑的調適路徑。
二
涉外人工智能侵權的特殊性
(一)涉外人工智能侵權類型的多樣化
隨著人工智能技術的不斷發展,人工智能的應用已從自動駕駛汽車、無人駕駛航空器等實體硬件產品擴展至云端算法、生成式人工智能等無形的服務系統。人工智能應用形式呈現出多元化的特點,而這樣的特點決定了涉外侵權類型和侵權客體的多樣性。例如,在醫療領域,醫生可以借助配備人工智能系統遠程醫療平臺跨境診斷病情、實施外科手術,在此過程醫生中可能會因人工智能算法缺陷導致誤診,從而引發人身侵權。又如,在金融領域,跨境投資機構可以通過人工智能對全球金融活動進行風險評估、基于算法提供跨境投資和資產管理的建議,一旦人工智能系統出錯,可能導致用戶遭受巨額財產損失,構成財產侵權。再如,在法律服務領域,法律人工智能進行在合同審查、案件預測時出現錯誤,可能損害當事人的合法權益,引發服務侵權。
涉外人工智能侵權有著不同維度的分類方式。按照人工智能的自主程度,可以分為因人類使用人工智能引發的侵權和因人工智能自身缺陷或瑕疵導致的侵權;按照人工智能侵權的客體不同,可以分為人身侵權、財產侵權、產品侵權、環境侵權、知識產權侵權、勞動侵權等。按照人工智能的應用形式,可以分為實體人工智能造成的侵權和人工智能系統造成的侵權。本文聚焦于由人工智能造成且具有涉外因素的一般侵權、產品侵權、人格權侵權,不涉及涉外知識產權侵權的討論。這是因為,跨境知識產權保護具有強烈的地域性,各國在人工智能生成內容是否構成作品、作者的身份、著作權的歸屬以及侵權責任的認定等問題上存在更大的分歧。另外,人工智能知識產權侵權的客體可能涉及多個作品的集合,存在多個侵權行為地,侵權行為地、被請求保護地的認定更為復雜,因而有其特殊的研究范式。
(二)不同風險等級人工智能侵權責任規則的沖突
對人工智能進行風險分級,將人工智能風險置于應用領域和場景中進行管理與規制,是各國人工智能監管立法的主要趨勢。人工智能風險層級的確定取決于多種因素,包括對個人基本權利、安全等價值的威脅程度、風險與應用方式之間的相互作用、損害結果的嚴重程度以及可逆性等。歐盟《人工智能法案》確立的不可接受風險、高風險、有限風險、低風險四級風險分類體系正是基于此邏輯將人工智能的技術特征與侵權責任進行匹配。具體而言,高風險人工智能因其具有自主性、不透明性和不可解釋性等特性,使得受害者在確定侵權責任主體、證明產品缺陷、因果關系等問題上存在極大的舉證困難。為此,歐盟《人工智能民事責任指令(提案)》高風險人工智能系統的運營商設置了嚴苛的證據披露義務和過錯推定責任。而對于自主化程度、風險等級較低的人工智能而言,因其可解釋性強、損害后果可控等特點,其應用過程對于人身安全和財產權的危害性不大,宜適用過錯責任。然而,全球范圍內并未形成統一的風險分級標準,甚至有的國家未對人工智能實施分級分類監管,這直接導致了不同法域之間監管模式的碎片化與不兼容。這種制度差異直接導致相同的人工智能在不同國家可能被認定為不同風險等級,從而引發跨法域的法律沖突。
(三)侵權行為實施地和損害結果發生地的隔地性
人工智能的開發、運營和應用通常不受物理界限的限制,其決策過程和行為可能在全球范圍發生。人工智能每個組件的運行和維護可能分散在不同地區,這樣的分布式特點決定了涉外人工智能侵權案件的侵權行為實施地、損害結果發生地以及其他與該案件有實質聯系的地點具有隔地性,從而增加了法律適用的難度。在實體人工智能造成物理傷害情況下,侵權行為實施地和損害結果發生地通常較為集中,較易認定。然而,當人工智能系統侵犯他人的虛擬財產或者人格權時,侵權行為地的確定將存在相當大的困難。例如,若人工智能系統侵犯了存放于區塊鏈中的虛擬貨幣財產,由于虛擬貨幣以去中心化方式儲存在遍布全球的大量節點上,法院難以確定損害發生地。又如,生成式人工智能系統的用戶使用該系統生成了虛假的圖片、視頻等內容并跨國傳播,可能同時侵犯他人的隱私權、名譽權、肖像權。這類侵權涉及兩個問題:一是生成式人工智能需要海量的數據作為參數,如果開發者非法搜集境外的數據對人工智能系統進行訓練,則可能導致隱私權侵權發生在多個國家,進而引發不同國家法律的適用問題;二是侵權行為人通過網絡方式在全球范圍內傳播虛假信息,使得人格權侵權的侵權行為地和損害發生地具有隔地性。
三
涉外人工智能侵權的法律適用偏差
涉外人工智能侵權的特殊性正以前所未有的方式對現代侵權沖突規范提出了挑戰。本部分旨在深入剖析現行侵權沖突規范適用于涉外人工智能侵權時所顯現的偏差,揭示現行法律體系在調整涉外人工智能侵權所面臨的困境。
(一)特殊侵權識別標準的模糊性
涉外人工智能侵權的準確識別是正確選擇沖突規范和準據法的前提和基礎。然而,人工智能應用形態的復雜性使得侵權類型識別成為一個難題,直接影響法律選擇的準確性。
1.產品侵權的識別
從歷史發展來看,侵權責任法經歷了類型化到一般條款再到一般條款與類型化并重的發展歷程。在一般侵權責任規則與特殊侵權責任歸責并行的侵權責任體系下,區分人工智能的產品屬性和服務屬性對涉外人工智能侵權的識別具有重要意義。然而,人工智能的表現形式既包括人工智能系統與硬件相結合的有體物,也包括以無體物形式存在的人工智能系統。前者符合大多數國家對于產品有形性的要求,可較為明確地被界定為“產品”。也就是說,因實體人工智能產品缺陷導致的涉外侵權可以通過產品侵權沖突規范確定準據法。然而,在更多情況下,人工智能以無形的軟件、算法或云端服務的形態出現,具備服務和產品雙重屬性,學界對于這類人工智能是否屬于產品的范疇眾說紛紜。一種觀點認為,有形性是界定產品的核心標準,儲存在如DVD或閃存盤等有形介質中的軟件可以視為產品;而通過云服務下載的人工智能應視為服務。另一種觀點認為,有形性不是判斷人工智能產品的唯一標準,人工智能軟件即便是通過云服務下載的,也可能因其使用目的具有產品的屬性。由此可見,人工智能軟件在產品屬性與服務屬性之間的界限模糊,往往會導致不同國家對于“產品”的定義存在差異,從而引發涉外侵權類型的識別沖突。識別結果的差異不僅導致受害人在舉證責任、責任主體范圍和賠償標準方面存在巨大落差,也使得涉外人工智能侵權案件中的法律結果具有高度不確定。
2.人格權侵權的識別
人格權侵權的非實體化特征同樣對涉外人格權侵權的識別構成挑戰。涉外人工智能人格權侵權涉及隱私和個人信息保護權、名譽權、肖像權等非物質性權利,其具體表現形式是通過內嵌于生成式人工智能的算法生成虛假或誤導性信息、圖片、視頻。這類虛假信息是根據特定用戶輸入的指令生成的,本身不具有直接公開性,只有經過該用戶或者其他主體的二次跨境傳播才會對人格權造成現實侵害。《法律適用法》第46條將人格權侵權的方式界定為“通過網絡或者采用其他方式造成的人格侵權”,但其“其他方式”措辭的含義并不清晰,在實踐中可能存在人工智能造成的人格權侵權能否適用該條款的爭議。盡管有法院在司法實踐中將“其他方式”解釋為“與網絡相近或相類似的媒介傳播方式”,例如電視、電影、廣播、傳真、電報、短信等無線通信方式或報紙、雜志、圖書、信件等紙質傳媒方式。但由于人工智能侵犯人格權與網絡方式侵犯人格權的行為在公開性和擴散速度等方面存在本質差異,這樣的解讀不足以證成涉外人工智能侵犯人格權適用第46條具有合理性。此外,在既有的司法實踐中,已經出現了一般侵權沖突規則在人格權侵權領域擴大適用的傾向,即適用侵權行為地和意思自治原則確定涉外人格權侵權案件的準據法。若這種趨勢延續到涉外人工智能侵權場景,如果人工智能在損害他人人格權的同時造成了生命、健康的嚴重損害,一般侵權沖突規范適用的不當擴張將進一步加劇了裁判結果的不確定性與法律沖突。
(二)侵權行為地認定的不確定性
傳統的涉外侵權沖突法通常選擇“侵權行為地法”作為調整涉外侵權法律關系的核心連結點,目的是在維護潛在侵權行為人法律適用的可預見性和保護受害人權益之間取得合理平衡。在涉外人工智能侵權中,侵權行為地這一連結點面臨的適用困境主要體現為兩對矛盾:一是侵權行為實施地和侵權損害結果發生地之間的適用沖突。前者通常指向人工智能開發、訓練、部署的物理場所及信息設備所在地,而后者則指向實際受害人遭受損害的地點。在涉外人工智能侵權案件中,人工智能的開發、訓練和部署可能分別位于多個國家,法院難以確定侵權行為發生時主要的侵權行為實施地。與此同時,人工智能造成的損害結果可能通過互聯網或者跨境服務擴散到多個國家。無論是適用侵權行為實施地法,還是適用侵權結果發生地法,法院在確定準據法時均存在明顯的局限性。二是人工智能創新與弱者利益保護的矛盾。從價值取向上看,侵權行為地的選擇直接體現出法官對于創新激勵與受害人保護的價值保護傾向。一方面,適用侵權行為實施地法固然可以提高潛在侵權行為人對法律適用的可預見性,為人工智能的發展和創新提供穩定的法律環境。但是,這種方法也可能增加受害者的訴訟成本、減少他們獲得賠償的機會,并且可能導致人工智能企業通過將核心環節置于人工智能侵權責任規則較為寬松的國家來規避更嚴格的法律責任。另一方面,適用損害發生地法雖有利于對受害者進行傾斜保護,便于受害者在當地尋求救濟,但人工智能企業可能因為難以預見損害可能會發生在哪個國家而導致合規成本激增,從而抑制技術創新。
然而,《法律適用法》對于如何在侵權行為實施地法和侵權結果發生地法之間做出選擇的問題并未確立客觀的選擇標準,而是交由法院根據個案定奪。從表面上看,《法律適用法》似乎為涉外人工智能侵權行為地的確定提供了一定的選擇空間,但實際上缺乏統一的界定標準會導致判決結果的不確定性以及充滿法官強烈的個人色彩。
(三)強制性規范適用的判斷標準缺失
在涉外侵權法律適用中,盡管允許當事人協議選擇準據法,但考慮到侵權領域所承載的公共政策和公平價值理念,法律能夠允許當事人自由選擇準據法的空間相對有限。在人工智能領域,各國均試圖通過強制性規范引導人工智能的發展方向、規制潛在風險、維護核心公共利益。然而,各國人工智能立法的碎片化使得法院在識別和適用強制性規范時存在不確定性,從而削弱其對當事人意思自治的限制功能。
此處的強制性規范應理解為國際強制性規范,即為了維護一國在政治、社會、經濟與文化等領域的重大公共利益,無需多邊沖突規范的指引而直接適用國際民商事案件的實體法強制性規范。國際強制性規范的適用在客觀上具有排除沖突規范指引和當事人意思自治結果的特點,主觀上旨在服務于維護國家的政治、社會和經濟秩序等重要社會利益。然而,中國人工智能領域的立法現狀給強制性規范的識別和適用帶來了現實困境。當前,中國的人工智能法律體系并不完備,呈現出規范碎片化且法律位階不高的特點。雖然《網絡安全法》《個人信息保護法》《數據安全法》等法律初步確立了部分人工智能的制度基礎,但是大量具體規定分散在行政法規、部門規章和政策性文件中。這些規范往往不屬于《法律適用法》第4條所規定的“法律、行政法規”的范疇,因而不能直接適用于涉外人工智能侵權關系。更為復雜的是,由于人工智能立法的調整對象、調整的社會關系具有高度不確定性,人工智能立法應適應未來技術發展中產生的不確定性。因此,現有的人工智能法律規范往往較為原則和宏觀,缺乏具體適用標準,從而加重了法官對國際強制性規范識別的壓力。一方面,法院需要面對分散在不同法律、行政法規、部門規章、規范性文件中的大量不明確規范,并逐一判斷其是否構成國際強制性規范;另一方面,法院還要結合公共利益保護需求判斷其是否具有排除沖突規范和意思自治的效力。這種主觀判斷的模糊性導致適用標準的不統一,使得當事人意思自治原則的邊界變得難以把控。
在涉外人工智能侵權中,強制性規范可能涵蓋算法反歧視、消費者保護、數據隱私與透明度等諸多方面。盡管這些規范中的部分規定不具備《法律適用法》第4條的法律位階要求,但所保障的消費者知情權、勞動者平等權、未成年保護等實質性利益,已達到應被認定為“強制性規范”的主觀標準。因此,法院在個案中對這些規范的適用與界定亟需結合人工智能發展的政策導向,確保不會忽視對重大利益的保護。
(四)公共秩序保留范圍的模糊與濫用風險
在涉外侵權的法律適用過程中,無論外國實體法是經沖突規范指引而適用,還是當事人協議選擇適用,倘若其適用后果與法院地國的基本法律原則和社會核心價值嚴重沖突,法院即可援引公共秩序保留制度予以排除。然而,公共秩序保留制度只能在外國實體法嚴重違背本國法律基本原則或強行法的情況下才能被運用,以體現公平對待外國法的態度。
瑞士學者布魯歇提出將公共秩序分為國內公共秩序與國際公共秩序兩類,前者在法院地的內國法適用時才予以適用,而后者則絕對要求在國際私法領域內適用。這一理論表明,在涉外人工智能侵權案件中,僅當涉及國際社會普遍接受且本國法律明確承認的基本法律原則和人工智能發展價值導向時,法院方可據此排除外國法的適用。然而,公共秩序保留制度在涉外人工智能侵權領域的適用面臨雙重困境。首先,國際治理格局的碎片化導致共識喪失。盡管聯合國國際貿易法委員會、聯合國科教文組織等國際機構和中國、美國、歐盟、俄羅斯等國家已形成了監管和規制人工智能的基本構架,但不同國家和地區在人工智能立法的目標、重點與進程上難以達成一致。這種多元分化的治理方式使得各國對涉及人工智能侵權的國際公共秩序難以形成共識。其次,公共秩序的適用具有主觀性和不確定性。涉外人工智能侵權所適用的外國法是否違反法院地國的公共秩序取決于各國對基本法律原則、根本政策或者國家利益的衡量標準。該標準與法院地國的政策導向緊密相關,但缺乏明確的實體考量因素。可見,涉外人工智能侵權案件中公共秩序保留制度適用的不確定不僅損害了當事人的預見性利益,還可能引發法院地國濫用公共秩序保留的問題,從而有損國際私法的穩定性根基。
四
中國涉外人工智能侵權法律適用的調適路徑
(一)中國現行侵權沖突規范的包容性
在人工智能的極速發展和廣泛應用的時代背景下,科技與法律之間的沖突已經延伸到國際私法領域中,對我國傳統侵權沖突規范提出適應性挑戰。然而,盡管我國尚未制定涉外人工智能侵權法律適用規則,但是《法律適用法》所構建的侵權沖突規范體系本身就具備足夠的包容性和靈活性,足以應對涉外人工智能侵權所帶來的法律問題。首先,這種包容性源于法律的技術中立性原則。現代侵權沖突法體現出來的技術中立原則旨在確保法律規則的長期適用性,避免因技術發展而頻繁修改立法。這種立法原則聚焦于侵權行為構成要件與法律效果的本質關聯,而非具體技術的實現路徑。因此,中國現行涉外侵權沖突規范能夠覆蓋不同類型人工智能侵權,并在確定人工智能損害賠償責任準據法方面起到主導作用。單獨為人工智能侵權設計沖突規范不僅可能違背技術中立性原則,而且還可能導致法律過度干預技術發展。其次,人工智能侵權并未突破傳統侵權法律的理論框架。雖然涉外人工智能侵權類型多樣,但無論其具體表現形式為何,本質上仍是侵權行為的一種。在實體法上,涉外人工智能侵權所涉及的責任主體、歸責原則、因果關系等核心問題并未超出傳統侵權法的范疇。即使人工智能所具有的自主性和不透明性增加了民事責任的認定難度,但仍可以通過現有的法律框架進行解釋以適應人工智能侵權的特性。
從實證角度來看,單獨設計涉外人工智能沖突規范可能導致法律碎片化,增加法律適用的復雜性和不確定性。在全球人工智能治理共識尚未形成的情況下,各國人工智能立法差異巨大。在此背景下制定專門的涉外人工智能侵權沖突規范很有可能導致國際法律碎片化和法律沖突加劇,反而不利于涉外人工智能侵權問題的解決。歐盟關于人工智能民事責任立法過程為這一解釋路徑提供了實證支撐。歐盟議會曾在2020年提出的《人工智能民事責任指令(草案)》中,試圖將涉外人工智能侵權的沖突規范從傳統侵權沖突規范體系中剝離出來。然而,由于有學者批評其偏離了歐盟傳統侵權沖突規范立法理念,被視為是一種“向過去前進”的方式。因此,2022年提出的《人工智能民事責任指令(提案)》刪除了草案中單設的涉外人工智能侵權沖突規范,回歸到歐盟傳統侵權沖突規范體系的做法。然而,由于歐盟各成員國對人工智能民事責任實體法的分歧在短期內無法彌合,歐盟在2025年的工作計劃中撤回了該提案。這一系列立法歷程印證了繼續沿用傳統侵權沖突規范應對新技術挑戰的可行性。
綜上,無論從學理角度還是實證角度,我國并無單獨制定人工智能侵權沖突規范的必要性和緊迫性。對于現行侵權沖突規范在涉外人工智能侵權適用問題上產生的偏差,完全可以通過制定專項司法解釋、發布指導性案例等方式偏差進行適應性調適。
(二)核心規則的解釋與重塑
盡管我國現行侵權沖突規范具備一定的包容性,但在實踐中,人工智能侵權所帶來的新型挑戰使得現行侵權沖突規則的適用存在諸多模糊地帶。因此,有必要采取解釋論的調適路徑,通過對核心規則解釋與重塑,為司法實踐提供清晰、可操作的指引,從而提升法律適用的確定性和可預見性。
1.確定不同侵權類型的識別標準
在涉外人工智能侵權案件中,特殊侵權類型的識別是準確進行法律適用的前提,需以《法律適用法》第8條確立的法院地法為依據。然而,我國現行法律體系對不同侵權類型的界分存在制度空白,導致沖突規范適用面臨現實困境。為了提升法律適用的一致性和可預見性,中國亟需建構明確的類型化識別標準。
首先,解決涉外人工智能產品侵權識別問題的著力點是明確“人工智能產品”的概念。我國應突破《產品質量法》對產品的傳統界定,結合人工智能應用類型多樣化和數字服務的技術特點對產品的外延進行調整和更新。一是對具備批量生產和流通屬性的實體人工智能,應直接納入產品范疇。二是突破有形性限制,將具有規模化生產特征、服務同質化屬性且風險可控的人工智能軟件納入產品責任體系。這是因為產品的本質屬性在于其生產、規模銷售帶來的社會效應,軟件的無形性特征并不構成其適用產品責任的障礙。三是結合產品責任的制度功能,從生產規模化程度、服務同質性特征及風險控制能力等維度對人工智能軟件的產品性質進行動態評估,對兼具產品與服務特性的混合型人工智能進行個案識別。
其次,針對《法律適用法》第46條在涉外人工智能人格權侵權中的適用爭議,需構建明確的解釋機制。法院在適用第46條人格權侵權沖突規范時,應結合人工智能侵犯人格權的場景對該條款進行擴張解釋,即將深度學習、自然語言處理、圖像生成等技術生成虛假內容的新型侵權方式納入為造成人格權侵權的“其他情形”的范疇,從而呼應《民法典》第990條對精神性人格權的保護需求。在此基礎上,當同一人工智能侵權行為分別造成身體性人格權侵權和精神性人格權侵權時,可通過雙層解釋框架進行法律適用:對于身體性人格權侵權,應適用第44條一般侵權沖突規范,而精神性人格權侵權則適用第46條規定。
2.合理界定侵權行為地的具體指向
在涉外人工智能案件中,侵權行為地的認定應當體現出提高法律適用的可預見性和保護受侵害人權益之間的合理平衡。結合人工智能的“算法黑箱”特性以及侵權行為與損害結果的隔地性,法院應當將人工智能侵權案件中的侵權行為地統一解釋為損害結果發生地。盡管有學者擔憂此舉可能導致受害人只能獲得較低的保護,但從政策考量來看,由于人工智能侵權往往具有不可預見性和廣泛擴散性,適用損害發生地法可以有效防止侵權行為人“挑選法院”,遏制行為人規避嚴格責任的行為。與此同時,適用損害發生地契合“弱者利益保護”的價值取向,適用受害人熟悉的法律尋求救濟,實質上改善了當事人因“算法黑箱”特性帶來的不公平的訴訟地位。從經濟角度來看,損害結果發生地法的選擇實現了風險分配的最優配置。在大多數情況下,侵權行為人應該能夠預見其行為可能在另一個國家造成損害,而受害者則應該能夠依據其遭受損害地的法律標準獲得賠償。如此看來,在現有的法律框架不變的情況下,將傳統侵權沖突規范中的侵權行為地解釋為損害發生地,既能為人工智能產業的發展留足創新空間,又貫徹了實質正義的價值追求。
3.明晰國際強制性規范的適用界限
涉外人工智能侵權當事人協議選擇的準據法并非毫無限制,而是要接受強制性規范的約束。當前,我國人工智能的立法如《數據安全法》《個人信息保護法》《網絡安全法》《互聯網信息服務管理辦法》《生成式人工智能服務管理暫行辦法》等,已初步建立起以風險要素為基礎的分級監管體系,這樣的立法更多地體現了對國家安全、公共利益以及個人信息保護的安全價值。盡管我國暫未通過法律形式明確人工智能分級分類標準,但是《人工智能法(學者建議稿)》確立的關鍵人工智能特殊監管制度,基本可以成為識別國際強制性規范的示范。基于此,中國法院在審查涉外人工智能侵權案件中當事人協議選擇的準據法時,應當結合人工智能分級監管的特點,對現行立法中的強制性規范進行區分和識別。一方面,對于涉及關鍵人工智能的監管規則,如信息披露義務、重要數據處理、個人數據控制權、算法歧視等,因其直接關系到社會公共利益及弱者利益,應被解釋為《法律適用法司法解釋(一)》第10條中“應當認定為強制性規定的其他情形”,從而具有排除沖突規范與意思自治的直接適用效力。另一方面,對于非關鍵風險人工智能的監管規范,除非涉及重大民生問題和社會公共利益,否則一般不宜認定為“直接適用的法”,以免過度限制當事人的協議選法的自由。
國際立法趨勢亦印證了人工智能領域強制性規范識別的價值導向。在歐盟、美國、日本、韓國等法域,人工智能法律的監管重點在于保護勞動者、消費者等特殊群體,防范算法歧視,加強隱私權與數據安全保障,以及提升系統透明度和責任機制建設等方面。例如,英國于2025年提出了《人工智能(監管)法案》草案,明確要求人工智能開發及運營企業必須做到對人工智能技術及其應用進行全面的透明度測試,并應嚴格遵守如數據保護、隱私、知識產權等法律的強制性規定。中國法院可以借鑒前述立法例中重點規范的內容,作為識別人工智能強制性規范的參考。在國際強制性規范的具體判斷上,應以關涉重大公益作為國際強制性規范的必要條件,應綜合考慮該規范所屬領域的特點、規范的目的、內容、實施方式、法律效力及其所體現的政策等因素。唯有如此,才能在促進國際民商交往穩定性的同時,有效實現人工智能治理中的國家利益保障與個人權利保護之間的平衡。
4.列舉公共秩序保留的考量因素
由于傳統侵權沖突規范存在一定的局限性,公共秩序保留作為國際私法中排除外國法適用的一項重要制度,有利于一國法院或法官根據本國利益的需要,決定是否適用根據沖突規則指引所應予適用外國法,從而有效保護本國利益、保護當事人合法利益。在人工智能迅速發展的背景下,該制度對于應對人工智能技術的不透明性、責任分配困難等問題尤為關鍵,能夠防止形式上的法律適用剝奪受害人獲得實質救濟的權利。現有的國際人工智能立法與治理政策已為公共秩序保留范圍的劃定提供了若干參考路徑。例如,歐盟的人工智能高級別專家組(AIHLEG)在2019年發布的《人工智能道德準則指南》明確提出尊重人類自主權、防止人工智能損害、公平和可解釋性四項核心道德原則,形成了較為系統的公共秩序評估框架。美國加利福尼亞州通過《違反公共政策的合同、個人或專業服務、數字復制品法案》,明確限制合同中濫用人工智能復制演員姓名、肖像等人格信息的條款,反映出公共政策對新型人格權的保護。與國際趨勢相呼應,我國《新一代人工智能發展規劃》確立的“人工智能的發展與防范風險并重”的政策導向,以及《人工智能倫理規范》提出的“增進人類福祉、促進公平公正、保護隱私安全、強化責任擔當”等基本倫理原則,為法官判斷外國法的適用是否違反本國的公共秩序提供了價值指南。在涉外人工智能案件中,如果外國法的民事侵權責任規則與上述倫理原則相沖突時,法院即可援引公共秩序保留排除該外國法的適用。
然而,鑒于當前司法實踐中存在公共秩序保留的裁量尺度模糊的困境,我國有必要通過司法解釋或者指導案例明確涉外人工智能侵權案件中公共秩序審查的實體因素,具體可以從以下幾個維度考慮:(1)在國家安全與社會穩定維度,重點評估人工智能技術應用對國家數據主權、網絡主權、關鍵基礎設施安全的潛在威脅;(2)在公序良俗與社會倫理維度,考察算法歧視、深度偽造等技術濫用對社會道德底線的沖擊,損害社會信任機制與倫理規范;(3)在個人基本權利維度,應關注外國法是否妥善保障受害人的隱私權、知情權、肖像權、聲音權等數字人格權,避免對人格尊嚴構成侵害;(4)在風險控制與責任分配維度,審查法律選擇結果是否削弱我國對關鍵風險人工智能系統的監管效果,或降低人工智能開發者、運營者的責任承擔標準;(5)在創新激勵維度,在保障基本權利的同時,也應避免對外國法適用的過度排除,防止濫用公共秩序保留制度抑制人工智能產業創新和技術發展,應在促進創新和保障公正之間尋求平衡。
五
結論與展望
涉外人工智能侵權因其自主性和不可解釋性的技術特性,呈現出與傳統侵權類型截然不同的特殊性。這些特殊性集中體現在以下幾個方面:一是涉外人工智能侵權類型和客體復雜化;二是不同風險等級侵權責任規則的沖突;三是侵權行為地與損害發生地的隔地性。
現行侵權沖突規范適用于涉外人工智能侵權時,暴露出明顯適用偏差。一是傳統侵權沖突規范在涉外產品侵權與人格權侵權的識別上,存在概念界定模糊和一般侵權沖突規則擴張適用的局限;二是在涉外人工智能侵權中侵權行為地的認定上難以提供統一指引,侵權行為地的確定存在困難;三是在涉外人工智能侵權中,強制性規范的識別和適用標準付之闕如,存在不確定性,從而削弱了法律選擇規則的功能;四是由于人工智能技術風險的復雜性以及全球治理格局的碎片化,公共秩序保留范圍的模糊性加劇了制度適用的不確定性和濫用的風險。
當前,現行侵權沖突規范的技術中立特點及其本身所具備的靈活性,足以包容涉外人工智能侵權的特殊性,為涉外人工智能侵權案件提供基礎的法律適用指引。中國單獨制定人工智能侵權沖突規范不具備必要性和緊迫性。因此,本文認為可以通過解釋論對中國現行的侵權沖突規范中的核心規則進行調適。首先,中國亟需在實體法層面建構明確的類型化識別標準,以增強沖突規范適用的確定性。其次,鑒于涉外人工智能侵權行為實施地與損害結果發生地常呈現出隔地性特征,將侵權行為地解釋為“損害發生地”既能回應實質正義需求,又能避免過度擴張管轄對人工智能產業創新的抑制。第三,中國在審查涉外人工智能侵權案件中當事人協議選擇的準據法時,應當結合人工智能分級監管的特點對強制性規范作出國內強制規范和國際強制規范的區分。在國際強制性規范的具體判斷上,應以關涉重大公益作為國際強制性規范的必要條件。最后,針對當前司法實踐中存在公共秩序保留的裁量尺度模糊的困境,中國有必要通過司法解釋或者指導案例明確涉外人工智能侵權案件中公共秩序審查的實體因素,為司法實踐提供指導。
盡管傳統涉外侵權沖突規范適用于涉外人工智能侵權時存在諸多偏差,但通過對現行侵權沖突規范的解釋和重塑,足以在保障法律穩定性的前提下,有效應對人工智能時代帶來的法律挑戰。但從長遠來看,全球范圍內人工智能侵權責任立法的趨同與協調才是破解涉外人工智能侵權法律適用困境的根本之道。
-向上滑動,查看完整目錄-
《中國政法大學學報》2025年第5期目錄
【綠色發展】
1.環境行政專業性判斷司法審查的梯度建構:以過程性審查為中心
任洪濤、唐珊瑚(5)
【人文哲思】
2.論篆刻藝術在明清時期的文人化
劉智強、朱友舟(22)
3.伍爾夫小說中的“新形式”及其情感形塑的音樂化
王希翀(37)
4.“情動的瞬間”:哈代詩歌中的音樂化特征及其“地方情結”
黃曉燕(54)
【社科前沿】
5.資本市場投資者獲償比例影響因素研究
——基于模糊集定性比較分析方法
李曉安、鐘燕華(68)
6.強制入會制行業協會何以合法
谷靜萱(88)
【法治文化】
7.從“舊學術”向“新革命”:陳瑾昆在后甘泉村時期活動考證(1947—1948)
——以中央法律問題研究委員會為研究視角
張巖濤(100)
【熱點聚焦 | 生態創新與可持續發展】
8.戰略性技術創新如何促進企業綠色轉型?
王洋洋、陳洪波、王偉光(118)
9.綠色工廠認證能否促進企業ESG表現?
張肅(132)
10.世界主要經濟體能源轉型路徑分析
肖建忠、鄭昊、成金華(154)
【法學前沿】
11.侵害監護關系的責任聚合研究
張新寶、卞龍(174)
12.論封閉式公司中小股東利潤分配利益失衡與矯正
王丹(190)
13.股東壓制中股權回購救濟的重塑和續造
王煥悟(201)
14.超齡勞動者用工關系認定的理論與實踐評析
曾彥超(212)
15.中美適航審定法規制度的差異化根源與應對策略
——基于法律體系的比較研究
王朝梁(226)
16.陸海統籌視角下涉海檢察環境公益訴訟協同的實踐困境與優化路徑
許勝晴(240)
17.數據知識產權登記制度的實踐困境及法治應對
楊莉萍(252)
18.涉外人工智能侵權的法律適用偏差及其調適
黃慧敏(266)
19.過罰相當原則的應然構造與適用完善
周蘇湘(277)
20.主渠道視野下復議制度的反思與再優化
梁君瑜(289)
《中國政法大學學報》創辦于2007年9月,是由國家教育部主管、中國政法大學主辦、《學報》編輯部負責編輯出版的綜合性人文社會科學學術刊物。現為雙月刊,大16開本,每期160頁,逢單月10日出版,設有:“法治文化”、“學術論衡”、“學人講壇”等欄目。《學報》堅持學術自由、兼容并包的編輯取向,崇尚扎實創新的學風,積極推進學術交流與對話,得到了學術界、期刊界同行的充分肯定,對中國的法治建設和法學發展發揮著積極的作用和影響。創刊以來,《學報》首發論文被人大復印資料等刊物轉載的篇次在國內政法類院校學報中名列前茅。其中我刊重點、特色欄目“法治文化”編發文章近百篇,已有二十篇文章被《新華文摘》等轉載,產生了良好社會反響。近年來,環境資源法學的論文也正在成為我刊編發文章的又一個亮點,引起學界的廣泛關注。
點擊進入下方小程序
獲取專屬解決方案~
責任編輯 | 郭晴晴
審核人員 | 張文碩 張科
本文聲明 | 本文章僅限學習交流使用,如遇侵權,我們會及時刪除。本文章不代表北大法律信息網(北大法寶)和北京北大英華科技有限公司的法律意見或對相關法規/案件/事件等的解讀。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.