![]()
人工智能(AI)聊天機器人ChatGPT在歐洲迅速普及,但歐盟監管機構卻遲遲未能就如何將其納入現有數字法律框架達成一致。
美國政治新聞網歐洲版(Politico.eu)報道,盡管歐盟自2024年初起已實施具有約束力的《數字服務法》(DSA),旨在要求大型平臺降低系統性風險,但面對ChatGPT這類新型AI產品,監管步伐明顯滯后。據歐盟委員會高級官員透露,相關決定最早也要等到2026年中才能出臺。
這一拖延凸顯出歐盟數字立法在應對快速發展的生成式AI技術時的結構性挑戰。《數字服務法》在ChatGPT尚未進入主流視野前就已制定完成,其對“大型在線平臺”和“搜索引擎”的定義并未充分涵蓋AI聊天機器人。如今,隨著ChatGPT月活躍用戶突破1.2億,遠超DSA設定的4500萬門檻,監管壓力驟增。
目前,ChatGPT已受歐盟《人工智能法案》(AI Act)約束。自今年8月起,OpenAI必須對其系統進行風險評估并采取緩解措施,否則將面臨最高1500萬歐元的罰款。但若被正式納入DSA監管范疇,罰款額度可能飆升至其全球年營業額的6%。
關鍵爭議在于:歐盟應如何界定ChatGPT的法律身份?是僅將其“搜索功能”視為搜索引擎,還是將整個聊天機器人服務視為大型在線平臺?
布魯塞爾自由大學AI治理專家約里斯·范霍博肯表示:“核心問題在于監管范圍的劃定。”若僅覆蓋搜索功能,OpenAI或可免于承擔“通知—行動”機制義務,即無需建立用戶舉報內容下架的流程;若整體納入,則需提交更全面的風險評估報告,涵蓋推薦系統、算法設計等多方面內容。
一旦2026年中作出正式指定,OpenAI最早將在2026年第四季度全面承擔DSA義務。但該公司也可能效仿Meta、X(原推特)等平臺,對監管決定提出異議,從而進一步拖延進程。
而更復雜的挑戰在于《人工智能法案》與《數字服務法》之間的協調問題。阿姆斯特丹大學信息法副教授若昂·佩德羅·金泰斯指出,這兩部法律雖設計為互補,但主要針對的是像谷歌那樣將AI功能嵌入現有服務的公司,而非OpenAI這類“垂直整合”的純AI提供商。兩法采用不同的風險分類體系:《AI法案》將AI系統分為不可接受、高、有限或最低風險四類;而DSA則聚焦四大“系統性風險”——公民誠信、選舉安全、公共健康及基本權利。
這種錯位可能導致監管盲區。例如,涉及虛假信息和深度偽造的內容風險,可能由DSA主導監管;而ChatGPT用于招聘等場景的偏見問題,則仍歸《AI法案》管轄。此外,OpenAI還可能援引“避風港原則”——即平臺對用戶生成內容不承擔直接責任——以減輕部分法律責任。
專家警告,若歐盟不能及時厘清監管邊界,不僅可能削弱法律效力,還可能讓AI風險在制度縫隙中蔓延。正如一位歐盟官員所言:“ChatGPT已成為檢驗歐盟能否有效治理大型語言模型的關鍵試金石。”在技術狂奔的時代,監管的“慢半拍”或許可以理解,但若長期滯后,恐將危及公眾信任與數字市場的公平秩序。
(歐洲時報/ 李璟桐 編譯報道)
編輯:沐橙園
點在看分享好文章
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.