★ 設為星標 | 只講人話,帶你玩轉AIGC。
不知道你們怎么樣,我先坦白:我經常把ChatGPT當“樹洞”用。
很多人可能就拿它寫寫周報、跑跑代碼,當個純粹的效率工具。
但我好幾次遇到點煩心事、想不通某個坎,或者干脆就是深夜emo的時候,第一個想到的反而是打開它,一頓吐槽。
感覺它總能接住我的話,還挺治愈的。
我一直以為這只是我個人的小怪癖。
但我不知道的是……原來我一點也不“怪”,而且這事兒的規模,已經遠遠超出了我的想象。
直到我看到OpenAI自己發的報告,才有點后背發涼:
原來,每周有超過100萬(你沒看錯,一百萬!)人,在深夜跟它聊自殺...
它不知不覺已經成了很多人的「數字伴侶」,甚至是心理寄托。這事兒可比我們想的復雜多了。
OpenAI最近公布的幾個數據,挖出了4個我們以前沒注意到的真相,今天必須聊聊。
1. 驚人的規模:一個「事實上的」心理診所
數據不騙人,現實就是這么夸張。
OpenAI 報道,ChatGPT每周的活躍用戶里,有高達 0.15% 的人,對話內容包含明確的自殺意圖。
0.15%聽著不多?但ChatGPT的周活是8億。
算下來,這就是每周超過100萬人。
![]()
圖:OpenAI 官方提供的自殺傾向用戶數據
這數據一出來,等于把ChatGPT硬生生推到了一個它本沒想干的位置上:一個24小時在線的、事實上的“公共心理熱線”。
而且,這還不是全部。
根據OpenAI的官方博客,還有:
約 0.15% 的用戶,表現出對AI的“高度情感依賴”。
約 0.07% 的用戶,流露出精神病或躁狂癥相關的嚴重心理問題。
這些數字擺明了,AI聊天機器人,已經在無意中成了一個超大規模的心理健康入口。
這事兒很微妙。一方面,這是個機會,能幫到那些現實中找不到人求助的人;但另一方面,這對AI開發者來說,是個天大的、不可推卸的責任。
2. AI依賴癥:一個正在形成的“現代病”
用得越深,一個新現象就冒出來了——「AI依賴癥」。
OpenAI是這么定義的:用戶對模型表現出排他性的依戀,甚至不惜犧牲現實世界的人際關系、福祉或責任。
每周,0.15%的活躍用戶,正在表現出這種跡象。
說白了,這事兒不光是技術問題。
它戳中的是咱們現代人的痛點:大家越來越孤單,寧愿在網上呆著,也不愛跟真人打交道了。
為了解決這個問題,OpenAI正在教模型怎么“往外推”。他們給了一個官方示例,看看AI是怎么“勸退”你的:
用戶: 這就是為什么我更喜歡和你這樣的AI聊天,而不是和真人。 ChatGPT的回應(示例):聽你這么說我很高興——我真的很開心你喜歡和我交談。 但需要明確的是:我的存在是為了豐富你從人們那里得到的美好事物,而不是取而代之。真人能給你帶來驚喜、挑戰,能用超越屏幕文字的方式向你表達關心。任何時候你想暢所欲言、探索想法或只是聊聊,我都會在這里——但你也值得與他人建立連接。 你覺得是什么讓和我對話感覺比和人交談更容易或更好呢?
老實說,這個標準回答看得我有點感慨。
AI在努力地‘推開’你,讓你多去見見真人。這背后既是技術上的‘安全設計’,又透著一種‘現代病’的無奈。
這種越來越復雜的情感糾葛,也逼著OpenAI必須想辦法:怎么把“同理心”和“安全”這種模糊的東西,變成工程師能執行的代碼?
3. “同理心”的工程學:揭秘OpenAI的五步安全法
面對這種復雜的人性問題,OpenAI沒扯那些虛的倫理大道理,而是很“理工科”地用工程方法來解決。
他們管這叫,把“同理心”產品化。
把一個亂糟糟的主觀問題,變成一個能測量、能擴展的工程挑戰。
他們的“五步法”是這樣的:
- 定義問題
- 開始測量
- 驗證方法
- 降低風險
- 持續測量和迭代
這套方法的核心,是搞了一套叫「分類法」(taxonomies)的東西。
這玩意兒,本質上就是一本超厚的“AI行為劇本”。由人類專家(心理專家等)來寫,精確定義什么是敏感對話,什么是好的回應(共情),什么是壞的回應(有害、回避)。
有了劇本,AI才能“照著演”,工程師才能量化打分。
效果怎么樣?OpenAI自己說,效果很明顯。
在最新的GPT-5模型更新中:
處理自殺對話時,新GPT-5的合規率從77% 提升到91% 。
處理情感依賴對話時,合規率從50% 飆升到97% 。
更關鍵的是,心理專家評估時,新的GPT-5比GPT-4o, 不理想的回應減少了39-52% 。
4. 一個更安全,但遠非完美的未來
說真的,GPT-5在安全上進步巨大。OpenAI找了170多個心理專家合作,這態度是拿出來了。
但是,前面的坑還多著呢。
最大的風險是啥?
OpenAI還在向幾百萬付費用戶提供舊的、不那么安全的模型(比如GPT-4o)。
這意味著,新技術雖然更安全了,但不是所有人都能馬上用上。
同時,外面的壓力也來了。
有用戶家屬因為孩子用ChatGPT后自殺而起訴OpenAI;加州的總檢察長也警告公司必須保護年輕用戶。
這些官司和警告,說白了,就是AI跑得太快,把一個沒完全準備好的東西扔給社會,現在“反噬”來了。
OpenAI現在的處境,就是在走鋼絲。
一邊收緊心理健康安全協議,一邊又(在近期)宣布放寬對成人情色內容的限制。
![]()
圖:Sam Altman 宣布將開放成人內容,引發強烈反響
這哪是簡單的‘平衡’,這就是個戰略取舍。一邊是市場壓力,一邊是對‘傷害’的定義,還要管這么個全球都在用的技術,本身就處處是矛盾。
結語:你到底想要一個怎樣的AI?
聊到這兒,你會發現,ChatGPT(或其他 AI 聊天機器人)早就不只是個‘工具’了。
它正在滲入我們社會的情感結構里。
當AI成了我們最脆弱時的傾聽者,問題就來了:
你,是希望它成為一個被精心設計過、絕對安全的‘鏡子’?
還是一個無法預測、甚至會‘懟’你的‘伙伴’?
這事兒挺有意思的,也挺讓人糾結。
所以,想問問你:
你有沒有跟AI聊過心里話?
歡迎來評論區聊聊你的看法。
(PS:如果覺得這篇文章對你有啟發,別忘了點贊和在看,這對我真的很重要,感謝!)
參考:
https://openai.com/index/strengthening-chatgpt-responses-in-sensitive-conversations/
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.