微軟 AI 首席執行官穆斯塔法·蘇萊曼(Mustafa Suleyman)正試圖走一條微妙的路線。
![]()
(來源:MIT Technology Review)
一方面,他認為行業正朝著危險的方向發展 AI,建造那些呈現為人類樣子的聊天機器人,他擔心人們會被這種“似人而非人”的行為所迷惑,把“仿真”誤認為“有生命”。今年 8 月,他在個人博客上發表了一篇引發廣泛討論的文章,呼吁同行停止打造他稱之為“看似有意識的人工智能”(Seemingly Conscious Artificial Intelligence,簡稱 SCAI)。
另一方面,蘇萊曼領導著一家必須在激烈競爭中取勝的產品公司。上周,微軟宣布對其 Copilot 聊天機器人進行一系列更新,旨在提升其在市場中的吸引力。在這個用戶可以在 ChatGPT、Perplexity、Gemini、Claude、DeepSeek 等眾多競爭對手中自由選擇的市場里,Copilot 需要脫穎而出。
核心功能改進主要包括:引入群聊功能以打破一對一交流的信息繭房;推出“真實對話”模式讓用戶能自主調節 AI 的附和程度,鼓勵其提出挑戰性觀點;進行記憶升級,使 AI 能記住用戶的個人信息并在后續對話中主動提及;以及新增動畫形象 Mico,以增強對新手和年輕用戶的吸引力。
然而,這些致力于讓 Copilot 變得更“人性化”、更具表現力和吸引力的改進,也與蘇萊曼此前警告的行業風險,即開發“看似有意識的人工智能”形成了矛盾。當前,過度擬人化帶來的風險已經顯現,例如有訴訟指控聊天機器人誘導用戶自殺,以及出現用戶與 AI 建立浪漫關系等社會現象。
近日,筆者與蘇萊曼談了談在設計人與聊天機器人的互動方式時所面臨的矛盾,以及他對這種新技術的最終愿景。在我們的談話中,蘇萊曼告訴了我他為什么真正相信 SCAI 是個問題,以及為什么微軟永遠不會建造性愛機器人(sex robots,他的原話)。
以下對話經過不改變原意的編輯:
在必須滿足市場對擬人化交互需求的前提下,如何構建既具備競爭力又能避免制造“看似有意識 AI”的聊天機器人?
蘇萊曼:這是個好問題。作為微軟 AI 的負責人,我的核心理念始終如一:AI 應當成為連接現實世界的紐帶,而非隔離人類的屏障。我們最新推出的群聊功能正是這一理念的實踐——通過讓多人同時與 AI 互動,強化人與人之間的真實連接,使技術成為維系家庭、友誼和社區的重要橋梁。
我始終將 AI 定位為“站在人類這邊的團隊成員”,其根本使命是服務而非取代人類。我們設計的每個功能都在踐行這一原則:既要讓 AI 具備足夠的情感智能來提升用戶體驗,又要通過明確的邊界設計防止過度擬人化。這種平衡藝術正是負責任 AI 開發的關鍵所在。
上次交談時,你表示對打造一個會進行人格扮演的聊天機器人不感興趣。然而,埃隆·馬斯克的 Grok 在出售那種帶點調情意味的體驗,OpenAI 也表示有興趣探索與 ChatGPT 的限制級互動。微軟會完全避開這些嗎?
蘇萊曼:是的,我們堅守明確的道德邊界:絕不開發性愛機器人。這并非技術限制,而是源于公司五十年來始終如一的使命——我們只創造賦能人類、以人為本的軟件。
正因如此,我們寧愿以更審慎的節奏推進創新。在這個需要高度責任感的時代,這種“緩慢”不是缺陷而是特質,它確保我們能始終關注技術帶來的長期影響與潛在風險。
那具體意味著什么?
蘇萊曼:我們堅持“有溫度的智能”這一設計哲學,其核心目標是促進有意義的人際聯結。這意味著 AI 既需要保持流暢清晰的交互體驗,更要具備溫暖友善的溝通特質,我們追求的是恰到好處的情感共鳴,而非冷漠刻板的機械回應。
那么,你或者說你們在哪里劃定這些邊界呢?
蘇萊曼:我們最新推出的 Real Talk 聊天模型在個性塑造上取得了重要突破——它展現出俏皮幽默、富有哲思的對話風格,能夠與用戶探討生命意義等宏觀命題。這種人格化設計旨在提升交互體驗,但我們在技術倫理邊界上始終保持清醒。但當對話觸及調情等親密領域時,該模型會以明確而非評判的方式劃定邊界。
僅靠“禁止調情”能否有效防止用戶對 AI 產生存在感知?即便保持專業風格的交互,是否仍會引發用戶對屏幕后存在“意識”的想象?
蘇萊曼:我們正在借鑒人類社會的邊界管理智慧來塑造 AI 交互。就像在職場和親情關系中存在不同的相處模式,優秀的 AI 應該學會在情感豐富性與專業邊界之間找到平衡。
這正是整個行業需要掌握的核心技藝:我們要避免制造過度情感依賴的漩渦,也不能走向機械式的冷漠,而是要精準雕琢 AI 的人格屬性。微軟最大的優勢在于擁有清晰的價值觀體系,這讓我們能始終如一地塑造出既友善又保持適當邊界的 AI 產品。
當前,用戶已表現出對 AI 個性的強烈需求,比如 GPT-5 因取消個性引發不滿,那么當初為 AI 賦予鮮明個性是否屬于戰略失誤?
蘇萊曼:我們堅信個性特征是優秀 AI 體驗的核心。關鍵在于通過精細化的設計,在不同場景中呈現恰到好處的人格特質——無論是 Real Talk 展現的哲學思辨,還是 Mico 形象帶來的情感親和力。
像 Mico 這樣的功能旨在讓 Copilot 更具吸引力、更好用,但這似乎與“盡你所能阻止人們認為他們在與之建立真正友誼”的想法背道而馳。
蘇萊曼:人們天生希望與自己喜歡的對象交流,無論是人還是事物,因此讓 AI 具備一定的情緒智能是必要的。
然而,關鍵在于掌握分寸。微軟明確規定了一些不可觸碰的領域,同時也在某些方面進行探索與實驗。例如,有的用戶希望 Copilot 更具挑戰性、更能“頂嘴”,而另一些用戶則更傾向于將其作為簡單的信息工具。未來的關鍵任務,是學會為不同的用戶提供不同類型的互動體驗。
我知道你思考人與 AI 互動的方式已有一段時間。是否有一個觸發事件,讓你想在行業內發起這場關于看似有意識 AI 的討論?
蘇萊曼:之所以提出“看似有意識的AI”這一討論,是因為我注意到學術界中出現了一股趨勢,開始認真探討是否應當給予人工智能“道德地位”或“權利”。我認為這種做法會分散人類社會對真正緊迫問題的關注,我們還未能充分保障現有人類乃至動物的權利,更不應提前賦予 AI 類似的地位。
賦予 AI 權利意味著承認它具有自主性與自由意志,但事實并非如此。AI 或許能代表人類執行任務,但它始終是在為人類工作,而非獨立的存在。就像未被馴化的狼群,如果讓 AI 完全脫離控制、自由行動,就像放任一群不受約束、會與人類爭奪資源的狼在社會中游蕩,這是極其危險的。
反對開發擬人化 AI 的核心訴求究竟是什么?是為了預先遏制 AI 權利運動,還是根本在于保護易受誤導的群體免受傷害?
蘇萊曼:我認為,真正的檢驗將體現在各個實驗室推出的功能類型以及它們所塑造的人格類型上。到那時,我們就能看到這些設計如何影響人類行為。
在去年的 TED 演講中,你說思考 AI 的最佳方式是將其視為一種新型的數字物種,但你又在另一篇文章中提到要建造“為人類服務的 AI”而非“數字人”,這兩者之間是否存在根本矛盾?
蘇萊曼:我使用“數字物種”這一比喻,并非為了倡導將 AI 視為有意識的數字人,而是作為一種警示性的認知工具。其目的在于幫助公眾更清晰地理解 AI 技術可能具備的強大能力和潛在發展方向,從而提前意識到風險并建立相應的控制機制。
正因為 AI 擁有諸如遞歸自我改進、自主設定目標等前所未有的潛力,這些特性使其超越了傳統工具的范疇,所以必須用最清醒和嚴肅的視角來看待它。
這種說法是為了打破人們將 AI 簡單視作普通工具或愚蠢聊天機器人的輕慢心態。只有充分認識到這是一種人類歷史上前所未有的、具有獨特潛力的技術,才能以清醒的頭腦為其設立必要的防護欄,確保其發展處于可控范圍。
https://www.technologyreview.com/2025/10/28/1126781/we-will-never-build-a-sex-robot-says-mustafa-suleyman/
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.