![]()
撰文 Skin
在鋪天蓋地的網(wǎng)絡(luò)短視頻中,你是不是也經(jīng)常遇到“AI配音”的視頻?現(xiàn)在,許多短視頻都直接用上了AI配音,你一定聽過經(jīng)典的悟空四郎等音效。
如今,“聲音克隆”這項技術(shù),已經(jīng)被集成進了各種短視頻和AI平臺,成為了每個用戶都可以一鍵使用的功能:只需要錄一小段自己的說話聲,AI就能直接“復(fù)制”出你的聲音和語氣。
![]()
不過,這也意味著,你的“聲音”很有可能被偷走、被利用,造成不堪設(shè)想的結(jié)果。
不知道你有沒有在短視頻里刷到過奧運冠軍“全紅嬋”賣雞蛋的視頻。視頻里,奧運冠軍“全紅嬋”戴著口罩對鏡頭說話:“我是你們的嬋寶,今天有事請大家?guī)兔Α让镁拖胫鴰椭鷭寢專尲依锏纳钸^得更好一點,同時把老家的土雞蛋分享給粉絲們嘗嘗……”而有些刷到的網(wǎng)友聽到“全紅嬋”的聲音,則會購買支持。商品的購買次數(shù)甚至高達47000次。
![]()
網(wǎng)絡(luò)賬號用“全紅嬋”的聲音賣雞蛋。而全紅嬋本人的家人則表示,這些聲音都是AI生成的。|央視新聞
除了全紅嬋,奧運冠軍孫穎莎、王楚欽等也開始幫短視頻商戶推銷雞蛋。不過,最近的報道顯示,短視頻上的聲音,都是“假”的,是AI偷走然后克隆,而這些奧運冠軍并未參與任何的代言和授權(quán)。不過,從雞蛋的銷量來看,有47000位網(wǎng)友不小心陷入了這場AI騙局。
![]()
你在短視頻網(wǎng)站上見過AI克隆明星帶貨的視頻嗎?|央視新聞
去年雷軍也曾陷入被AI仿冒惡搞的困境,網(wǎng)絡(luò)上涌現(xiàn)出大量“惡搞雷軍AI配音”的視頻,用雷軍的形象和聲音發(fā)布不實發(fā)言、銳評甚至極端內(nèi)容。雷軍本人不得不出面呼吁大家不要再玩雷軍語音包,說“希望大家不要再玩了”。
2024年在美國,喬·拜登的聲音也被克隆,電話直接打到選民家中,告知接聽者不要在周二的總統(tǒng)初選中投票。
![]()
除了假冒名人帶貨和發(fā)言,普通人的聲音被偷走也很危險。騙子很有可能用你的AI聲音誘導(dǎo)你的親人或朋友,誘騙他們匯款或泄露敏感信息。
網(wǎng)絡(luò)安全公司McAfee發(fā)布的一項7000人參與的調(diào)查研究顯示,70%的人分辨不出克隆聲音和真實聲音之間的區(qū)別。7.7%的人表示他們被AI克隆的聲音騙過錢。其中,36% 損失了 500 至 3000 美元,而 7% 則被騙了 5000~15000 美元。
這項調(diào)查還揭示了一些詐騙的細
節(jié),比如45%的詐騙都是假冒朋友或家人發(fā)來的語音消息,其中請求來自伴侶或配偶(40%)、母親(24%)或孩子(20%)。而消息內(nèi)容包括:車禍(48%)、遭受搶劫(47%),丟了手機或錢包(43%)和出國旅行時的意外(41%)。
![]()
騙子常用的詐騙場景:車禍、搶劫等。在每個國家都頻繁發(fā)生。|參考資料1
這種詐騙的方法也是“魚叉式網(wǎng)絡(luò)釣魚”的其中一種,指的就是有針對性的,面向特定目標進行的詐騙和攻擊。如今許許多多的網(wǎng)絡(luò)詐騙都是如此,它們看起來就像為受害者量身定制,看起來可信度很高。而AI則讓這種詐騙更加普遍,也更難被我們檢測出來。
因此,在這種情況下,及時聯(lián)系親友做好事實核查就變得至關(guān)重要。以為銀行的信息安全官還提醒,可以與親人約定一個“安全短語”——就像是你和家人之間獨特的暗號——可以用來通過電話驗證身份。
![]()
老年人等對新型科技手段不熟悉的人更容易被騙。因此,提醒家里的老年人,并和他們約定驗證身份的方式十分重要。|CBC截圖
不過,更危險的是,騙子想要偷走“聲音”,難度比你想象得小多了。除了網(wǎng)絡(luò)上的各種技巧和工具外,McAfee的研究人員還發(fā)現(xiàn),3秒鐘的音頻就足以生成一個與原始語音匹配度高達 85% 的克隆語音。如果再加入一點點訓(xùn)練數(shù)據(jù),匹配度可以達到95%。
而一些AI音頻生成軟件如今甚至還可以克隆出人聲各種“呼吸聲”,比如沉重的嘆氣,氣喘吁吁的聲音等,甚至還能改變你說話時周圍的環(huán)境音……
所以,騙子可以從哪些渠道偷走你的聲音呢?
(1)在社交媒體、電話發(fā)布的已有的視頻中的你的聲音。
(2)當你在使用一些軟件的時候,在沒有花時間看的用戶協(xié)議里,可能已經(jīng)將自己的聲音“授權(quán)”給了軟件。
![]()
在網(wǎng)絡(luò)上分享聲音,已經(jīng)成為了一個很普遍的現(xiàn)象。而平臺和軟件缺乏監(jiān)管和保護,我們的聲音就很有可能會被盜取。|參考資料1
(3)標榜賺錢的騙局:一些有聲書“兼職配音”的線上試音,也許就是騙取個人隱私和聲音的手段。
![]()
這種“配音兼職”有著刷單、詐騙和盜取個人資料的風險,所以一定要保持警惕。|圖源網(wǎng)絡(luò)
最后,我國正在出臺各種監(jiān)管手段,整治AI克隆聲音的亂象,幫助受害者維權(quán)。
2020年,《民法典》首次將我們的聲音納入法律保護。非法模仿他人的聲音,就和肖像一樣可能是侵權(quán)行為。2024年,北京互聯(lián)網(wǎng)法院判決兩家公司向一名配音演員支付 25 萬元人民幣的賠償,因為這兩家公司未經(jīng)同意克隆了該配音演員的聲音。這是中國首例保護語音權(quán)免遭人工智能克隆的法律判決。
2025年9月1日起施行的《人工智能生成合成內(nèi)容標識辦法》則明確表示,服務(wù)提供者應(yīng)當對文本、音頻、圖片、視頻、虛擬場景等生成合成內(nèi)容添加顯式標識。
![]()
參考資料:
[1]https://www.mcafee.com/ai/news/ai-voice-scam/#:~:text=These%20tools%20required%20only%20a,small%20number%20of%20audio%20files.
原創(chuàng)文章版權(quán)歸微信公眾號
“把科學(xué)帶回家”所有
轉(zhuǎn)載請聯(lián)系:bd@wanwuweb.com
凡本公眾號轉(zhuǎn)載、引用的文章 、圖片、音頻、視頻文件等資料的版權(quán)歸版權(quán)所有人所有,因此產(chǎn)生相關(guān)后果,由版權(quán)所有人、原始發(fā)布者和內(nèi)容提供者承擔,如有侵權(quán)請聯(lián)系刪除。
▲關(guān)注我們,點亮在看,分享一下▼
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.