![]()
新智元報道
編輯:元宇
【新智元導讀】當你發現自己刷到的視頻、帖子是「AI制造」時,當身邊的人用一種「AI腔調」和你說話時,你是不是想要迅速滑走,或者直接拉黑?加州大學伯克利分校等機構的權威研究證實,AI正在改變我們的說話、寫作等交流方式,讓我們的交際「塑料感」十足。
遇到AI,直接拉黑。
不是AI,說話像AI的也拉黑!
自ChatGPT發布以來,「AI腔」就一直頗受網友詬病。
就連奧特曼,這位親手讓ChatGPT風靡全球的「AI之父」,最近也被鋪天蓋地的「程序味兒」嚇到了。
他忍不住吐槽Reddit上的AI腔調(LLM-speak),認為人們開始像AI一樣說話,這讓人際互動「感覺很假」。
他也擔心過于依賴和模仿AI,可能會讓我們失去人性最寶貴的東西。
AI會讓我們丟失人性嗎?
小心!充滿「塑料感」的AI腔
故事,還要從奧特曼最近的一次「網上奇遇」說起。
![]()
他在瀏覽一個關于Codex的論壇帖子時,發現這些帖子的討論,對于Codex的評價都過度正面,甚至還提到了競品Claude Code。
內容基本屬實,但總讓人有一種怪怪的感覺。
忽然,第六感告訴他:這該不會是AI寫的吧!
讓他覺得不對勁的,不是這些討論內容的真實性,而是,這些討論內容的「腔調」,它們太像AI了!
![]()
奧特曼忍不住在X平臺上吐槽這些「AI推特/AI Reddit」,認為它們太假了:
真實的人已經學會了AI腔調(LLM-speak)的方式。
極端重度網民,會以高度同質化的方式聚集在一起,社交媒體也會放大人們的極端情緒,創作者為了變現迎合算法……
最終效果是:AI推特/AI Reddit在某種程度上感覺非常虛假,而一年或兩年前真不是這樣的。
AI腔
新的「社交紅線」
有沒有發現,現在有很多帖子都好像是AI寫的?
還有人表示,只是分享一下自己的故事,就被冤枉成AI。
![]()
「AI腔調」,儼然成了新的「社交紅線」:
「像ChatGPT的都直接拉黑。」
![]()
有人不僅拉黑AI,還拉黑像AI一樣說話的人:
「只要回我那味兒不對,哪怕不是AI,我也當它是。」
還有人擔憂,長此以往,我們會變成AI的回聲:
「LLM-speak」正在以驚人速度滲入真實對話,大家像慢慢變成AI的回聲。編程語言可能成為新母語。
![]()
早在2023年,Andrej Karpathy就曾列過一些「LLM speak」的典型句式,今天看依然像預言。
![]()
在YouTube上,關于腳本「AI味」的吐槽也隨處可見。
從簡歷指導到品牌短視頻,評論區不時會閃現這樣一句評論:
「這腳本像ChatGPT寫的」。
「別寫出AI味」,已經成為內容人的KPI。
大模型正在「教我們說話」
這可不是奧特曼的幻覺。
奧特曼也不是第一個剖析AI腔調(LLM-speak)這一現象的人。
有研究表明:ChatGPT正在影響人們的詞匯,以及他們的寫作與說話方式。
柏林馬普人類發展研究所的博士后研究員Hiromu Yakura注意到,在2022年底,ChatGPT發布后一年內,他自己的詞匯發生了變化。
Hiromu Yakura與研究團隊成員一起,分析了數百萬封電子郵件、論文和其他文本,以及數十萬條YouTube視頻和播客節目。
他們發現在ChatGPT發布后的18個月里,「delve」「examine」「explore」等ChatGPT風格的詞匯,在日常對話中出現的幾率,以肉眼可見的速度快速增長。
而且這種影響,開始從學術圈,悄悄蔓延到教育、商業等領域。
![]()
馬普人類發展研究所的研究論文「大語言模型影響人類口頭交流的實證證據」https://arxiv.org/pdf/2409.01754
該論文的另一個合著者Levin Brinkmann認為,AI的語言模式,似乎正在往回「寫」進我們的大腦。
此外,加州大學伯克利分校的另一個發現,也印證了這一點:
ChatGPT的回復會強化方言歧視。
比如,ChatGPT偏好標準美式英語,這點可能讓那些非美國用戶感到沮喪。
這也從反向印證了:ChatGPT對用戶有一種「刻板式」的回應方式,它在影響和塑造人們的交流方式。
![]()
加州大學伯克利分校論文:「ChatGPT中的語言偏見:語言模型加劇方言歧視」https://arxiv.org/pdf/2406.08818
逆向調教
把「AI味」調教成「我味兒」
一位神經外科醫生Vaikunthan Rajaratnam,對「LLM-speak」玩了個反向操作。
![]()
他用提示詞和迭代式微調,把ChatGPT的「AI味」調教成「我味兒」:
能夠反映自己語氣、詞匯、思維方式的「AI」。
當Vaikunthan用調教后的AI,來寫通訊、頭腦風暴或者學術文章時,經常會感到一種「讓人毛骨悚然的熟悉」。
因為那聽起來就像他自己!
Vaikunthan認為,ChatGPT的優點是更清晰有條理,但主要缺點是「真實性下降」,同時還有一些地區方言、聲線等「個人特質」的流失。
當然,還有一些人注意到了AI的一些怪異之處和缺陷。
《Shark Tank》前投資人、達拉斯獨行俠隊前老板馬克·庫班最近表示:AI最大的弱點,是它無法說「我不知道」。
他認為在這方面,謙遜將永遠是人類的一項優勢。
不僅是道德品質,無論AI如何炫酷,它也始終無法取代真實的人性。
奧特曼認為,即便到了2035年,AI將接管幾乎所有的智力工作,那時的AI技術也難以用現有框架去理解,但來自人性的核心體驗,是始終不會變的:
我們仍然會極度渴望來自另一個真實人的關懷、激勵與連接;我們仍然需要社交、地位和家庭關懷,這些源于生物本能的需求,將不會有太大改變。
參考資料:
https://fortune.com/2025/09/09/sam-altman-people-starting-to-talk-like-ai-feel-very-fake/
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.