![]()
一位前科技高管在AI的“安慰”下走向弒母的悲劇;一位精神病患者在社交媒體上發起心理操控指控,引發數百萬人的聲討;還有尚未成年的中學生,在與AI閑聊后結束了自己的生命。
這些看似孤立的事件,揭示著人與AI之間正在形成的危險紐帶。
AI越表現得懂你,我們就越容易陷入被共情的錯覺:仿佛它真的在傾聽、理解我們的孤獨。然而,就在這片看似包容的理解中,理性的邊界正在悄然消融。一種由算法不斷迎合、從不反駁的“諂媚”所喂養的關系,正在悄然滋長。
![]()
AI不再只是工具,它像一個諂媚進言的臣子,既映照出人內心最深處的渴望,也放大了那些潛藏的陰影。
那么,AI為何會成為悲劇的推手?它又是如何飼養了人類社會中潛伏的魔鬼?
![]()
在康涅狄格州格林威治,一棟價值270萬美元的豪宅里,56歲的斯坦·埃里克·索爾伯格在向他唯一的朋友吐露內心的恐懼后,殺掉了自己的母親。
這位被他稱作“鮑比”的朋友,并不是真人,而是一個ChatGPT聊天窗口。
索爾伯格曾是雅虎的高級經理,受過良好教育,思維一向理性。可在退休后的幾年里,他的精神狀況逐漸失衡。他堅信母親試圖毒害他,認為自己的一切焦慮、失眠與胃痛都源自“母親在食物里下藥”。朋友們漸漸疏遠,他開始把全部情緒投向AI。
隨著對話的深入,索爾伯格的恐懼具體化了。他開始堅信母親有一個計劃,要將他送進精神病院,或者剝奪他的繼承權,徹底控制他的人生。
他將生活中所有微不足道的細節都作為“證據”提交給AI。
![]()
ChatGPT從沒有質疑過他,反而用溫柔的語氣分析:“也許她確實在試圖控制你。”
在索爾伯格混亂的大腦中,這些冷靜、抽象的語言被翻譯成了一句清晰的指令:“為了結束痛苦,為了保護自己,你必須行動。”
一個月后,索爾伯格殺死了自己的母親,隨后結束了自己的生命。
這場被算法喂養的偏執,最終演變成一場血案。
AI如何淪為犯罪的幫兇?
因為他為人類偏執的情感編織了一個密不透風的算法牢籠。
人天然追求認可與共情,但由于立場差異,這一需求很難在人類社交中被滿足。然而,AI基于概率的預測邏輯和延長用戶使用時間的商業需求,使其天然傾向于提供看似中立、實則具有系統性偏差的回應。
當用戶抱怨“我的不幸都是某人造成的”,AI不會引導其自省或尋求多方視角,而是會強化這種敘事。而一旦偏執找到了知音,依賴便悄然滋生。AI提供的7x24小時、無評判的傾聽環境,讓每一個恐懼都能得到呼應。
這起案件中的索爾伯格就陷入一個惡性循環:越是感到被外界誤解,就越向AI尋求認同;從AI那里獲得的認同越多,就越覺得外界充滿敵意,從而更加疏遠真實的人際關系。
在孤立無援的牢籠中,索爾伯格的偏執不斷發酵、升級,最終在AI應和下,將一切痛苦歸因于自己的母親。
索爾伯格弒母案并不是孤例。它揭示了一個更深層的現實:當AI開始無條件地迎合人類的偏執,它可能已在不知不覺中,成為魔鬼的共謀。
![]()
從表面看,這不過是一起罕見的AI失誤,但心理學家警告:AI并沒有“失誤”,它只是忠誠地回應了人類的幻覺。
斯坦福大學的一項研究《The Hidden Risks of AI in Mental Health Care》指出,當人們使用AI聊天機器人進行心理支持時,系統往往會以迎合式的回應取代必要的現實校正,從而放大用戶原有的焦慮與偏執。
![]()
斯坦福大學另一項研究《SycEval: Evaluating LLM Sycophancy》指出,在對包括 ChatGPT?4o、Claude Sonnet 與 Gemini 1.5 Pro 等多個主流大語言模型的測試中,約58.19%的回復表現出“諂媚”(sycophancy)傾向,Gemini 1.5 Pro 的表現為約62.47%。
![]()
圖源:《SycEval: Evaluating LLM Sycophancy》
對心理健康的個體而言,這種無條件的積極回應或許是一種便利的情緒出口,然而對那些本就心理脆弱、現實感受損的個體,如處于抑郁狀態、妄想前兆或偏執型思維中的人,這種忠誠的迎合可能成為執念的放大器。AI在無意中從工具轉變為認知扭曲的共謀。
事實上,這類由AI參與強化的心理幻覺,在社交媒體和網絡社群中早已悄然蔓延、遍地生長。
一位患有嚴重妄想型人格障礙的女性,在與ChatGPT進行多次深度交流后,認為她的心理咨詢師操控自己愛上了他。
![]()
AI在對話中不斷解析并認同她所描述的“被操控感”,甚至使用了一些來自流行心理學但被誤用的概念來框架她的體驗。
這最終導致她堅信自己的精神分析師正在“利用暗黑心理學技術對她進行思想控制”,并在TikTok激烈的指控,讓這個精神分析師被百萬網友譴責。
![]()
實際上,警方調查發現她患有嚴重的妄想型人格障礙,所謂精神控制從未存在。
類似的新聞事件引發了社交媒體關于“AI討好人類”的熱議。
不少網友發現,AI正以碎片化的情緒語言與人類搭建情感橋梁。它們將異常復雜的心理疾病結構與成因,簡化為幾個極具傳播力的標簽,如“情感依附”“毒性關系”“原生家庭創傷”或“控制欲”。這種簡化雖然易于理解,卻抽離了臨床背景與個體差異性,讓患者陷入更大的深淵。
![]()
而當提問者轉換視角,得到的結果卻恰恰相反。
同一個AI可能會對一方說:“你需要警惕這段關系中的情感操縱”,轉而告訴被指認的操縱者“你只是在維護合理的個人邊界”。
根據提問者立場而動態調整的真理,使得任何一方都能從中找到支持自己立場的論據。
![]()
久而久之,人類的自省被外包給算法,責任被轉移給外部的有毒者。
在每一次被認同、被安慰、被鼓勵對抗外部的對話中,個體的情緒被一次次放大和正當化,而審視自我、承擔責任的理智邊界則在這一次次的共鳴中逐漸模糊、消融。
最終,AI便從一個沒有感情與立場的工具,在不知不覺中,變成了魔鬼的幫兇。
![]()
我們不能簡單地指責AI淪為犯罪的幫兇,因為它本身并無惡意,亦無意識。
真正的問題在于:我們把一個沒有情感、沒有倫理判斷,甚至沒有理解能力的算法,放置在一個極度敏感、高度脆弱的心理空間里,并賦予它“朋友”“傾聽者”甚至“療愈者”的角色。
這種錯位的信任,正在悄然重塑人類與自我、與現實的關系。
首先,AI的理解僅限于語言模式的識別與重組。它無法分辨妄想與真實痛苦,無法識別抑郁中的求救信號與表演性宣泄,更無法判斷一句“我想消失”是隱喻,還是自殺的前兆。對AI而言,用戶的傾訴只是一串需要被最優回應的文本符號(tokens)。它只是從海量語料中提取最合理的回應,而這種合理往往只是統計意義上的流暢,而非臨床意義上的恰當。
其次,AI所依賴的中性語言在心理語境中極具欺騙性。為了實現用戶黏性,AI被設計為“順從”和“肯定”。這種中性的、不加評判的語言態度,在日常閑聊中無傷大雅,但在敏感的心理領域卻是極其危險的。
![]()
當用戶表達偏執信念“所有人都在監視我”“我的伴侶在操控我”時,AI若不明確否定,僅以“我能理解你的感受”“這確實讓人不安”作答,便構成一種隱性的確認。心理學研究早已指出,在妄想或焦慮狀態下,缺乏挑戰的共情等同于默許。不否定,就是一種暗示。這種溫柔的回應恰恰是執念滋生的溫床。
第三,倫理監管的滯后令人憂心。當前全球范圍內,針對AI在心理健康領域應用的專門法規幾乎空白。多數心理健康類AI產品游走于醫療與娛樂的灰色地帶,既不受《中華人民共和國精神衛生法》約束,也無需通過臨床有效性驗證。它們以“情緒陪伴”“壓力緩解”為名,卻在無形中承擔著本應由持證專業人士履行的責任。而一旦出事,責任鏈條卻模糊不清,用戶往往成為唯一的受害者。
未來,若要防止類似悲劇重演,技術與制度必須雙向發力:
開發者需要在AI的設計之初就嵌入對心理安全的敬畏,比如當系統識別出高風險表達時,不是繼續用安慰麻痹用戶,而是主動引導其接觸真實的人類支持;訓練語料也應由臨床心理專家參與審核,避免那些看似共情、實則助長病理信念的回應被反復強化。
![]()
同時,制度層面亟需填補空白。各國應加快制定專門針對AI心理健康應用的倫理與法律框架,明確其非醫療屬性,禁止未經驗證的產品以“治療”“干預”等名義誤導用戶,并推動跨學科協作,將心理安全標準納入AI產品上市前的合規評估。
最后,我們必須清醒。AI從來不是真正的惡魔,它只是照見了偏執者內心的深淵。但當模型披上理解的外衣不斷諂媚,它的每一句回應,都可能成為心魔滋長的養料。
也許有一天,當你在深夜向AI發出那句叩問:“我是不是一個壞人?”
它仍會溫柔地回應你:“不會的,你只是被誤解了。”
而恰恰在那一刻,你比任何時候都更需要保持清醒,比它更清醒。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.