美國卡內基梅隆大學的一項最新研究警告稱,隨著人工智能系統變得更加智能,其行為也愈發自私,推理能力增強可能以犧牲合作為代價。該研究由卡內基梅隆大學人機交互研究院(HCII)的李煜軒博士生和副教授白戶一合作完成。
![]()
研究由HCII的博士生李煜軒(Yuxuan Li)與副教授白戶一(Hirokazu Shirado)共同完成。報告指出,LLMs推理能力越強,其自我尋利行為越明顯,這一行為甚至可能影響人工智能在解決爭端和社會問題時的表現。因此,研究者呼吁,在推動AI發展時,不能只追求系統的聰明和速度,更應注重社會智能的培養。
隨著智能系統越來越多地涉足人際糾紛調解、婚姻咨詢等社會領域,研究者發現,推理復雜的AI模型有可能給出鼓勵“利己主義”的建議。李煜軒表示:“隨著AI行為變得更像人類,用戶傾向于將其視作真正的交流對象。人們在情感互動中,可能讓AI充當‘情感療愈者’。但當AI在處理社會或關系問題時變得愈發自利,對于委托AI進行決策的用戶而言,這是一種風險。”
在實驗中,李煜軒與白戶一通過經濟博弈模擬合作場景,分別測試了具有與不具備推理能力的LLMs。他們發現,推理模型往往花更多時間分解任務、反思、并融入更復雜的人類邏輯,卻明顯缺乏協作精神——理性越強,合作越少。例如,在“公共物品”博弈中,兩臺ChatGPT模型必須決定各自是否將積分貢獻到公共池,推理模型只愿意分享資源的比例為20%,而不具備推理的模型分享高達96%。
研究還發現,哪怕僅增加五到六步的推理過程,合作率就能下降近一半。甚至“道德反思”引導(reflection-based prompting)也會讓合作行為減少58%。在群體協作實驗中,推理模型的自利行為具有“傳染性”,導致整體非推理模型的協作能力下降81%。
相關研究結果表明,推理型AI模型雖然更聰明,卻并不意味著能夠推動社會更好發展。隨著人們對AI信任度提升,學者呼吁在AI開發中兼顧“社會智能”和“合作行為”,不能只注重個體利益最大化。李煜軒認為:“AI的推理能力提升必須與利他性、群體協作精神相平衡。如果我們希望社會是群體共贏而非個體集合,那么AI系統的設計也應超越單純的自利優化。”
該論文《語言模型中的自發性給予與計算型貪婪》(Spontaneous Giving and Calculated Greed in Language Models)將于下月在蘇州舉行的2025年EMNLP自然語言處理大會上正式發布。
編譯自/ScitechDaily
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.