![]()
新智元報(bào)道
編輯:傾傾
【新智元導(dǎo)讀】當(dāng)醫(yī)生按下Enter鍵,AI就能決定人的生死!美國(guó)華盛頓大學(xué),一項(xiàng)名為「AI代理人」的研究,試圖讓算法預(yù)測(cè)昏迷患者的生死意愿。支持者說這是醫(yī)療新紀(jì)元,反對(duì)者擔(dān)心它只是復(fù)制偏見的機(jī)器。當(dāng)AI學(xué)會(huì)理解生命,人類的憐憫、猶豫與責(zé)任,會(huì)不會(huì)被一串?dāng)?shù)據(jù)取代?
醫(yī)生還沒開口,AI已經(jīng)替你決定好了——
根據(jù)模型預(yù)測(cè),該患者傾向于放棄搶救。
這不是電影的劇本,而是美國(guó)華盛頓大學(xué)正在進(jìn)行的一項(xiàng)真實(shí)研究。
當(dāng)患者陷入昏迷、無法發(fā)聲的時(shí)候,AI將替他向醫(yī)生傳達(dá)是否接受搶救的醫(yī)院。
實(shí)驗(yàn)中,研究人員將其稱之為「AI代理人」(AI surrogates)。
![]()
這聽上去像一場(chǎng)科技的人道主義實(shí)驗(yàn):在生死交界處,讓算法解讀人類的意愿。
可問題是AI真懂嗎?還是它僅僅理解那些與患者相似的數(shù)據(jù)?
在這個(gè)系統(tǒng)的底層,算法并沒有「聆聽靈魂」,它只是瀏覽歷史病歷、人口學(xué)特征、醫(yī)療選擇模式,然后推斷:與你相似的人通常如何抉擇。
于是,人類的意愿被模型化,個(gè)體生命的價(jià)值被平均化。
當(dāng)AI開始預(yù)測(cè)生死,它做出的已不再是技術(shù)判斷,反而成了社會(huì)偏見的延伸。
醫(yī)生按下Enter鍵,人生被AI判了生死
在生死關(guān)頭,患者失去語言與意識(shí),往往需要靠家屬、代理人乃至醫(yī)師替其做出關(guān)鍵的「是否繼續(xù)搶救」決定。
但是,現(xiàn)實(shí)中我們真的知道患者想要什么嗎?這個(gè)問題仍然困擾著醫(yī)療體系。
就在此時(shí),UW?Medicine創(chuàng)傷科研究員Muhammad?Aurangzeb?Ahmad提出的「AI代理人」(AI surrogate)概念應(yīng)運(yùn)而生。
![]()
Ahmad所在的創(chuàng)傷科團(tuán)隊(duì),正嘗試?yán)谩敢酝鶄椤⒉∈贰⒓韧t(yī)療選擇、人口學(xué)數(shù)據(jù)」為基本資料,通過機(jī)器學(xué)習(xí)模型預(yù)測(cè)患者在失去表達(dá)能力時(shí)如果能選擇,會(huì)怎么做。
這種研究的邏輯內(nèi)核,是當(dāng)患者不能自己說話時(shí),以算法為參照,協(xié)助醫(yī)生、倫理委員會(huì)、家屬判斷「這位患者如果清醒了,他/她會(huì)同意繼續(xù)搶救嗎?」
研究團(tuán)隊(duì)的目標(biāo)之一,是實(shí)現(xiàn)大約三分之二的預(yù)測(cè)正確率,并且為模型的運(yùn)作模擬了流程。
首先,收集患者的傷情嚴(yán)重程度、醫(yī)學(xué)歷史、人口統(tǒng)計(jì)特征。
之后,將這些變量輸入機(jī)器學(xué)習(xí)模型,回顧性地觀察模型對(duì)歷史病例的預(yù)測(cè)準(zhǔn)確度。
團(tuán)隊(duì)對(duì)模型的未來有著長(zhǎng)遠(yuǎn)的打算:讓患者一生與系統(tǒng)互動(dòng),記錄醫(yī)患對(duì)話、家屬短信、生活偏好等文本數(shù)據(jù),隨著時(shí)間不斷更新患者的數(shù)字檔案。
![]()
不過,目前該系統(tǒng)仍是一個(gè)概念,尚未實(shí)際用于病人交互,也未進(jìn)入決策流程。
正如UW Medicine發(fā)言人所說:
在推出前,需要完成多階段審核。
「讓算法幫你決定是否被救」不再是科幻話題,而正在成為醫(yī)學(xué)倫理與AI交叉的新實(shí)驗(yàn)場(chǎng)。
算法的盲區(qū):AI預(yù)測(cè)的不是意愿,而是偏見
「患者的選擇」聽起來像是個(gè)人性化的表達(dá),但在機(jī)器學(xué)習(xí)里,它會(huì)被簡(jiǎn)化成一串概率。
在華盛頓大學(xué)的AI代理人項(xiàng)目中,這個(gè)概率是靠歷史數(shù)據(jù)喂出來的:誰被搶救過、誰簽署過放棄治療指令、誰在哪種情況下「選擇死亡」。
而問題也正出在這里。在醫(yī)學(xué)數(shù)據(jù)的世界里,沒有真正的「中立樣本」。
老年人、少數(shù)族裔、低收入群體,在既有數(shù)據(jù)中往往出現(xiàn)更高的放棄治療比例。
算法從這些模式里學(xué)到的「意愿」,其實(shí)是社會(huì)結(jié)構(gòu)的投影。
醫(yī)生Emily Moin在接受采訪時(shí)就指出:
這些決策是動(dòng)態(tài)、情境性的。若你讓AI去預(yù)測(cè)一個(gè)昏迷者的意愿,它依賴的只是「方便的真值」,并非真實(shí)的地面現(xiàn)實(shí)。
她提醒道,AI代理人可能最先被用于「沒有家屬、無法溝通」的患者——而這樣的人群永遠(yuǎn)無法驗(yàn)證真相。
這意味著,模型無法被校正,也無法證明它有沒有偏見。
更危險(xiǎn)的是,醫(yī)院和醫(yī)生在高壓環(huán)境下很可能過度信任模型輸出。
久而久之,算法就不再只是參考,而成為一種默認(rèn)答案。
![]()
這種「技術(shù)性放棄」,在醫(yī)療體系中極具誘惑。AI代理人看似在解放醫(yī)生的心理負(fù)擔(dān),實(shí)際上卻在讓系統(tǒng)更高效地復(fù)制不平等。
研究者Ahmad自己也承認(rèn),模型要想真正做到「公平」,不能只看預(yù)測(cè)結(jié)果,而要考慮「患者的道德宇宙」:
兩個(gè)臨床情況相似的患者,一個(gè)以宗教為核心,另一個(gè)以個(gè)人意志為導(dǎo)向。如果算法以相同方式對(duì)待他們,就是一種道德抹除。
這場(chǎng)技術(shù)實(shí)驗(yàn),表面在探索如何更懂患者,但在底層邏輯里,它其實(shí)在問:誰有資格被救,誰又可以被默認(rèn)放棄。
當(dāng)人類依賴AI,偏見才真正開始生長(zhǎng)
AI代理人并不直接篡奪生死權(quán),它靠的是一種更隱秘的力量——信任。
醫(yī)生、家屬、倫理委員會(huì)都在試圖逃避那個(gè)最難的問題:「該不該救?」而AI正好填補(bǔ)了這份心理真空。
在醫(yī)院的日常節(jié)奏里,醫(yī)生要處理幾十個(gè)危重病人,每一次溝通都要耗費(fèi)巨大的情緒與時(shí)間。
AI模型的出現(xiàn),讓一切變得「高效」——它能立刻輸出一個(gè)判斷,一個(gè)結(jié)論,一種確定感。
于是,那行「模型預(yù)測(cè):患者傾向放棄復(fù)蘇」的文字,開始變成一塊倫理的擋箭牌。
![]()
Emily Moin說:
如果家屬拒絕對(duì)話、醫(yī)生時(shí)間不夠,所有人都可能默許去看AI的結(jié)論
這種默許正是偏見流傳的起點(diǎn)。算法的結(jié)論看似客觀,并因其冷靜、快速、無情緒而更具說服力。
慢慢的,人們不再爭(zhēng)論、不再懷疑、也不再負(fù)責(zé),AI就成了那個(gè)最權(quán)威、也最無法追責(zé)的決策者。
倫理學(xué)者Robert Truog警告:
在現(xiàn)實(shí)世界里,CPR并不是一個(gè)二元問題——幾乎所有情況的答案都要看情境。
但AI無法理解「情境」,它只知道「YES」或「NO」。
當(dāng)醫(yī)院依賴這種二元邏輯時(shí),灰色地帶被擠壓,模糊性被視為錯(cuò)誤,而確定性被誤認(rèn)為公正。
這就是偏見的第二次生成:第一次發(fā)生在算法學(xué)習(xí)數(shù)據(jù)時(shí);第二次發(fā)生在人們決定相信算法時(shí)。
最終,醫(yī)生得以卸下心理負(fù)擔(dān),醫(yī)院獲得效率,社會(huì)得到一種假象的理性。
代價(jià)是,真正的「意愿」被悄悄掩藏在模型里。
人的價(jià)值,被寫進(jìn)算法
AI代理人的危險(xiǎn),并不只在于預(yù)測(cè)錯(cuò)了誰的意愿,而在于——它正在決定什么樣的生命更「值得」被拯救。
Ahmad在即將發(fā)表的論文中寫道:
AI代理人的公平性,不僅是結(jié)果平等,更是對(duì)患者世界觀、宗教、家庭關(guān)系的忠實(shí)呈現(xiàn)。
他舉了一個(gè)極具爭(zhēng)議的例子:
一名懷孕女性,舊記錄顯示她曾勾選「不愿意被接上呼吸機(jī)」;但如果她后來成為堅(jiān)守「生命神圣」信念的宗教信徒,那段舊數(shù)據(jù)就可能被AI誤讀成她「仍然想被拔管」。
人類代理人或許會(huì)替她辯護(hù),而AI不會(huì)。
因?yàn)樵谒惴ǖ氖澜缋铮瑳]有悔悟與改變,有的只是一致性。
![]()
Ahmad稱,這種一視同仁反而是一種「道德抹除」。
兩個(gè)臨床情況相似的患者,一個(gè)以宗教為核心,另一個(gè)以個(gè)人意志為導(dǎo)向。如果算法以相同方式對(duì)待他們,就是一種道德抹除。
那意味著,即便AI看似公平,它也可能在無聲地抹去差異。而差異,正是人之為人的起點(diǎn)。
更深層的問題在于:算法的道德水平是誰決定的?是工程師寫進(jìn)去的?是數(shù)據(jù)統(tǒng)計(jì)出來的?還是社會(huì)共識(shí)默認(rèn)的?
當(dāng)AI開始替人發(fā)聲,它其實(shí)在模仿某種特定文化的聲音:可能是西方的個(gè)人主義、也可能是醫(yī)療體系的效率邏輯。
醫(yī)學(xué)倫理學(xué)的系統(tǒng)性綜述早已指出:
AI若被用于臨床倫理決策,包括代理決策,可能提升預(yù)測(cè)準(zhǔn)確性,但同樣可能復(fù)制既有偏見與不平等。
![]()
于是,那些無法被數(shù)字化的價(jià)值——宗教信仰、家庭倫理、文化差異就被安靜地排除在模型之外。
AI看似在預(yù)測(cè)人的意愿,實(shí)則在不斷重構(gòu)「意愿」的定義。
Ahmad在論文結(jié)尾寫了一句耐人尋味的話:
最公正的AI代理人,不是那個(gè)最確定的,而是那個(gè)會(huì)猶豫、會(huì)邀請(qǐng)人類重新討論的系統(tǒng)。
也許這才是所有討論的起點(diǎn)——當(dāng)AI開始學(xué)著替人發(fā)聲,我們更需要重新學(xué)會(huì)傾聽。
在AI代理人的討論里,人類最常說的一句話是: 「我們只是想讓決策更科學(xué)一點(diǎn)。」
但科學(xué)從來不等于中立。當(dāng)算法開始學(xué)習(xí)誰想活、誰想死,它學(xué)到的從來不是人的意志,而是社會(huì)的態(tài)度。
也許真正該被質(zhì)疑的,從來不是AI能不能預(yù)測(cè)死亡意愿,而是我們?yōu)槭裁聪M腥颂嫖覀冏鲞@個(gè)決定。
AI不會(huì)替人贖罪。它不會(huì)安慰,也不會(huì)承擔(dān)后果。它只是把人類逃避的那部分——責(zé)任、模糊、猶豫整齊地收納成數(shù)據(jù)輸出。
當(dāng)醫(yī)生按下Enter鍵,當(dāng)家屬點(diǎn)下確認(rèn),那一瞬間被釋放的,也許不是患者,而是我們自己。
參考資料:
https://arstechnica.com/features/2025/10/should-an-ai-copy-of-you-help-decide-if-you-live-or-die/
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.