至少60年前,人類就已經嘗到了與“數字心理醫生”對話的滋味。
20世紀60年代,麻省理工學院的約瑟夫?魏澤鮑姆(Joseph Weizenbaum)教授模擬了一個心理醫生ELIZA,通過簡單的語言模式與用戶對話,讓患者自己暴露內心、獲得情感撫慰。不過,ELIZA并不能真正理解情緒,而是通過算法將對話引向特定模式。
時光荏苒,人工智能浪潮幾起幾落,“數字心理醫生”也從最初的算法規則匹配,發展到如今大模型和智能體的多模態應用,人們致力于讓機器與人類“共情”。
AI正從實驗室走向真實個體的心靈。然而,如何平衡普惠化應用與倫理安全,成為擺在科技與醫療交叉口的一道時代命題。
近日,香港中文大學教授、電氣與電子工程師學會會士(IEEE Fellow)、美國計算機學會會士(ACM Fellow)邢國良在接受《每日經濟新聞》記者采訪時指出,AI要真正成為“心理健康的基礎設施”,仍需跨越倫理、安全與技術等多重挑戰。他直言,AI不會成為治療者,但可以成為陪伴者。
受限于技術缺陷,業內呼吁嚴格限制AI對患者的直接行為建議,不讓AI直接給患者任何具體的行為指導。此外,從臨床需求來看,應推動AI從通用模型向專業化、多模態系統進化。
但通過AI在心理照護方面的實踐,能獲得更具啟發性的思考:如何重估“真正的智能”,它也許不是回答一切,而是知道何時該沉默。
![]()
圖片來源:視覺中國-VCG211478193393
生成式AI開啟“心靈普惠時代”
研究顯示,在我國,有心理問題的人數在2億~3億,其中超5400萬人患有抑郁癥,泛心理問題人數高達9500萬。
隨著消費者心理健康意識不斷增強,以及在線泛心理健康服務平臺蓬勃發展,預計心理健康服務市場將實現快速發展。弗若斯特沙利文預計,2025年中國泛心理健康服務市場規模將達到104.1億元。
與此同時,專業心理治療資源緊缺問題持續存在。在很長一段時間里,心理援助可以說是屬于少數人的奢侈品,專業心理醫生數量有限、服務價格高昂、地域分布不均,將大部分人擋在門外。
長久以來,人們對通過技術改善心理健康服務的探索從未停止,但真正的轉折點,或許正在生成式AI的到來中出現——它不僅能讓心理咨詢服務變得更加普惠,也能在情感陪伴、心理干預等環節上,為人類提供新的技術支撐。
聆心智能CEO鄭叔亮在一次公開分享中提到,生成式人工智能的出現,是AI從“理解”到“共情”的重要轉折點。就像孩子真正學會做題那一刻一樣,當AI能夠在理解人類情緒的基礎上生成恰當的回應,它才真正具備了陪伴和療愈的潛力。
不過,需要注意的是,在臨床實踐中,更深層的挑戰并不在于“陪伴”的缺口,而在于“診斷”的復雜性。
上海交通大學計算機學院副研究員吳夢玥在一場分享會中指出,精神疾病與生理疾病的不同在于“沒有生物標記物”,例如,糖尿病可以通過測血糖來客觀診斷,精神疾病的診斷高度依賴醫生的問診和量表,使得診斷本身就面臨差異性。
AI的出現,在這片主觀經驗與高昂成本交織的領域,提供了一種全新的可能性。
與傳統心理服務相比,AI工具的優勢之一或許就在于低門檻與規模化優勢。邢國良指出,只需一部手機或一款應用,用戶即可獲得初步的情緒理解與壓力管理建議,服務成本極低,且互動壓力小。
這種低成本的方式,正在打破心理援助的稀缺壁壘,將心理援助推向大眾。“不少用戶面對人類咨詢師時存在羞怯、顧慮,AI提供的是‘低壓對話環境’,尤其適合情緒尚不嚴重但有傾訴需求的人群。”邢國良補充道。
IEEE數字金融與經濟標準委員會專家委員、桐元軟件CEO胡凝也認為,AI的“非人類”身份在某些情況下會成為獨特的優勢,讓某些患者放下對同類的戒備心理,更容易建立信任和溝通。
AI不會成為治療者
一方面,AI正讓心理服務的門檻一點點降低,但另一方面,當AI從一個“博學的助手”嘗試扮演更積極的角色時,其固有的技術缺陷便暴露無遺。
幻覺問題是當前AI行業公認的隱憂。所謂幻覺,是指模型生成了看似合理、實則錯誤的信息。
在心理健康領域,機器的幻覺,比人的幻覺更難察覺,因為它披著理性的外衣。但與此同時,在這一對語義敏感度和準確性要求極高的場景中,幻覺可能直接誤導患者,甚至造成心理傷害。
吳夢玥提到了當前心理診療的一大難點——當前精神疾病診療手冊中關于抑郁情緒的描述,與人們表達“我現在心情不好”之間存在一個巨大的語義鴻溝,它是個人自然語言表達與結構化的臨床文本之間的鴻溝,這種理解錯位本身就極易導致誤導性建議。
其次,醫療大模型的另一個難點在于“實踐智慧”的缺失。吳夢玥提到,臨床決策中常有兩難情節,在兩個沖突的倫理原則間做權衡,這依賴醫生的“實踐智慧”。
AI在面對這類沒有標準答案的灰色地帶時,其幻覺帶來的影響可能很難估量。
“這是AI在心理健康行業公認的難題。”邢國良表示,尤其在心理健康這種對內容準確性和語義敏感度要求極高的領域,更應格外謹慎。
胡凝提出了一個辯證的觀點。她認為,有時候,符合患者認知的“幻覺”可能有助于情感安慰。“在心理疏導和客觀事實之間,有時需要優先考慮患者的情感需求”,但這需要專業判斷,不能濫用。
在臨床應用中,專業人士對于AI輸出內容的可控性和安全性有著極高要求。邢國良強調,AI不會成為治療者,但可以成為陪伴者。他認為,AI將首先在情緒監測、早期篩查、輕度疏導等領域實現落地。“在引導性對話中,應設置明確的‘底線機制’,例如識別(出)風險行為時立即提示專業干預。”目前,其團隊正在嘗試通過端側建模和數據匿名化策略,防止情緒識別過程本身造成新的心理負擔。
為規避風險,胡凝主張,應嚴格限制AI對患者的直接行為建議,不讓AI直接給患者任何具體的行為指導,避免因理解偏差造成危險,因為一旦出現問題,很難明確責任歸屬。對醫生而言,AI系統則必須確保其建議過程透明、可驗證,提供來源依據和核實工具。
武漢大學精神衛生中心主任、教授、主任醫師王惠玲的臨床經驗也印證了這一點。她在評價AI模型給出的治療建議時,特別提到其亮點在于邏輯清晰,符合臨床思維以及治療策略有據可循。盡管如此,王惠玲也指出,AI在策略制定中應更加重視患者不良風險,建議增加自殺干預相關的應對策略等。
為了在技術上“鎖住”幻覺,行業正積極探索解決方案。
胡凝提議,可以通過檢索增強生成(RAG)與專家混合(MoE)等機制,讓多個系統相互監督,以降低幻覺率。
邢國良則認為,AI最具潛力的落地形式可能不是模仿心理醫生的AI,而是嵌入日常生活的輕量化系統。比如,通過音頻、活動、交互頻次等行為信號在本地做推斷,為用戶推送“溫和提醒”或“轉介建議”,這類非侵入式干預在倫理和實踐層面更容易被接受。
臨床需求:AI心理應用應從通用走向專用
當前的AI心理應用大多基于通用模型,它們擅長語言,卻看不懂表情、語氣、姿勢,也缺乏長期記憶。它們無法知道用戶的情緒在昨天是怎樣的、今天為何不同,而這恰恰是心理健康中最關鍵的線索
因此,從通用走向專用,就成了產業的現實選擇。
邢國良認為,當前模型往往只能處理用戶明確表達的信息,對語氣、行為、表情等復雜語境感知不足;同時缺乏長期記憶能力,無法形成持續的心理畫像;在文化和成長背景的理解上也不夠敏感。
胡凝也認為,通用模型雖能輔助專業人員,但難以滿足不同患者復雜而獨特的心理需求。“傳統的通用模型無法充分理解每個患者獨特的主觀體驗”,真正的心理AI系統,應從分類診斷走向對心理狀態的多維和流動的動態理解,這要求系統能夠具備模擬多樣認知模式、整合多模態數據的能力。
臨床的需求則更為迫切和具體。王惠玲描述了精神科診斷的難點:“我們的特點與皮膚科不一樣。其中之一是不能一眼看到,得醫生去挖掘才能找到這個點。”她提到,一名抑郁癥患者對著鏡子練習“標準化微笑”,“我們醫生都看不出來他是個抑郁癥,都覺得他的笑是發自內心,但其實他是抑郁”。
“所以,如果AI能幫助我們做數字聽診器的工作或者數字標志物的工作,這個對我們是非常重要的。”王惠玲迫切希望能有客觀工具,幫助醫生捕捉患者面部表情、語音語調、姿勢動作等的細微變化。
這種臨床的迫切需求,正推動AI從通用模型向專業化、多模態系統進化。
“未來的心理健康AI必須是‘多模態+多源感知+用戶可控’的系統。”邢國良表示,這意味著AI需要與穿戴設備、端側傳感器、生理和行為數據融合。在這一方向上,邢國良團隊已孵化出Nuna智能吊墜(Nuna Smart Pendant)等可穿戴產品。該設備可通過語音與生理信號推斷用戶的情緒變化趨勢,并在端側提供輕量化的反饋與提醒,幫助用戶在日常生活中進行情緒調節。邢國良指出,這類“嵌入式”設計能在保護隱私的前提下提供溫和支持,“讓情緒關懷真正成為生活的一部分”。
重估AI價值:真正的智能是知道何時該沉默
更深層的變化在于理念的轉向,心理健康照護正從標準化走向個性化。
“傳統心理健康護理往往依賴固定的診斷標簽,就像給每個人貼上統一的標簽。”胡凝指出,AI的價值,不僅在于通過分析行為、生理和環境的各種數據,發現人眼難以捕捉的細微變化,幫助醫生“看見”患者內心的微妙變化,更在于幫助患者理解自我、重新融入社會。
胡凝認為,真正的心理AI系統,應具備模擬多樣認知模式的能力,“對患者行為模式和認知進行總結歸納,幫助臨床醫生理解他們未曾親身經歷過的認知模式”。同時,系統也需要“對病患可能的危險行為進行模擬和預測”。
當AI具備了這種深度理解能力,其最終目標也不再僅是診斷,而是成為連接患者與現實的橋梁。
胡凝提到了橋接現實的技術理念,即當患者的主觀感受與現實社會存在較大差異時,AI能創造介于兩者之間的橋接空間,用患者能理解的方式解釋社會規則,同時用社會能接受的方式表達患者的需求。
這種深度融合的另一面,同樣面臨極大的隱私挑戰。
邢國良強調,技術機制必須服務于人的信任。他認為,AI在心理健康中的最大風險來自數據使用邊界模糊與隱私保護缺位,用戶缺乏對數據如何被使用的控制力、模型訓練可能放大社會偏見以及云端處理難以完全脫敏或避免泄漏。
在人機協作的終極形態中,機器的智能與人類的智慧缺一不可,真正的智能,也許不是回答一切,而是知道何時該沉默。
邢國良直言:“AI本質上不具備真正的‘共情’,但可以模擬出共情行為,這對心理輔助場景尤為重要。”他認為,關鍵在于通過技術設定、語氣控制和容錯機制,讓模型“知道何時該沉默”,在關鍵情緒節點“止步于不懂,而非強行輸出”。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.