全球超過3000名頂尖科學家和科技大佬突然聯名發出緊急呼吁,要求立刻暫停高級人工智能的研發!
前幾天,未來生命研究所(Future of Life Institute)發布了一份重磅聲明,截至10月23日中午,已有超3000名各界權威人士參與聯署。其中包括AI教父杰弗里·辛頓、蘋果公司聯合創始人史蒂夫·沃茲尼亞克、圖靈獎得主姚期智與約書亞·本吉奧等科技界大腕,前美國國家安全顧問蘇珊·賴斯、英國王妃梅根、特朗普盟友史蒂夫·班農等政界與公眾人物。
他們呼吁的核心內容是,在科學界未達成“安全可控開發超級智能的廣泛共識”前,全球應暫停“超級智能”相關研發。“超級智能”指的是在所有核心認知任務上全面超越人類能力的人工智能形式。
為何這些頂尖人士會發出如此緊急的呼吁?原因在于超級智能存在著巨大的潛在風險。如果超級智能的目標與人類利益出現錯位,可能會導致經濟崩潰、人類權力被剝奪、自由和公民權利喪失、國家安全出現危機,甚至可能致使人類滅絕。目前,我們還沒有堅實的科學證據和切實可行的方法來確保超級智能的安全,使其不會給人類帶來災難性的風險。
與此同時,未來生命研究所發布的美國全國性民調顯示,僅5%的受訪者支持目前“無監管的AI開發現狀”,73%的人支持建立更為嚴格的監管機制,64%的受訪者認為,在科學界尚未就安全與可控性達成共識之前,不應開發“超級智能”。
其實,這不是人們第一次對人工智能的發展表示擔憂。2023年,就曾有包括馬斯克、沃茲尼亞克在內的1000多名人工智能專家和行業高管集體簽署過公開信,呼吁暫停開發更強大的人工智能至少6個月。著名物理學家霍金生前也與多位科技界名人發表聯署公開信,稱人工智能對人類的威脅更甚于核武器。
此次聯名呼吁意義重大,它表明超級智能的風險已經成為全球性的公共議題,需要各國共同協作來解決。有分析認為,這次倡議或許能推動G20或聯合國層面重啟AI倫理議題,使AI治理從行業自律階段走向多邊協商階段。
這一事件給我們帶來了深刻的啟示,AI的發展不能盲目追求技術的進步,而忽視了安全和倫理問題。人類需要在發展人工智能的同時,更加注重風險的評估和管控,確保人工智能真正為人類的福祉服務,而不是帶來滅頂之災。我們必須認識到,在與人工智能共同走向未來的道路上,人類肩負著重大的責任,需要謹慎地邁出每一步。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.