近期,休閑零食行業的知名企業良品鋪子身上的事兒不少,不僅業績持續惡化,更因控股股東的股權重復轉讓爭議引發訴訟。
這家曾以“高端零食”標簽立足的企業,近年陷入業績持續下滑泥潭,核心數據顯示其經營困境已進入惡性循環。
自2023年起,良品鋪子線下渠道大幅度收縮,數據顯示2025年一季度末,門店數進一步下滑至2581家,相當于每天凈減少1.37家。收縮線下渠道的同時,線上渠道曾被寄予厚望。
2024年公司電商收入達29.32億元,占總營收的40.95%,成為重要收入來源。但據歷年財報數據,自2022年起電商收入已連續三年下滑,且流量費用持續上升,不斷壓縮利潤空間。
屋漏偏遇連陰雨,深陷泥沼的良品鋪子又因為“四粒紅花生”產品的宣傳海報而顏面盡失。
![]()
有網友發現,良品鋪子電商平臺的商品詳情頁中,一款“四粒紅花生”產品的宣傳海報令人大跌眼鏡。
花生居然懸掛在枝頭!這是拿顧客當弱智嗎?
面對質疑,良品鋪子回應“正觀新聞”記者:“由于工作疏忽,在電商平臺商品詳情頁中錯誤使用了由AI生成的圖片素材,從而引發了不必要的誤解和討論。”
目前,良品鋪子稱已對相關頁面進行了更新修正,并已啟動對所有產品宣傳材料的核查。同時,其正在進一步升級內容審核機制,優化內部管理流程。
當AI把花生搬上枝頭,我們不禁要問:
為什么今天的生成式 AI 連“花生要鉆到土里才結果”這種小學生都知道的自然課常識都會搞錯?
連孩子都知道的常識,AI真的難以跨越?
這究竟是哪個AI的杰作?
答案不在“花生”本身,而在于AI的學習方式。
從技術原理看,生成式AI的“常識盲區”源于其訓練模式的局限。
首先,當前主流文生圖模型,以擴散模型(Diffusion Model)為代表,本質上是“像素級復讀機”。這類AI通過海量文本與圖像數據的學習模式,數據中關于花生的視覺特征可能存在嚴重偏差。
AI訓練語料中,花生詞條常常伴隨“枝繁葉茂、碩果累累”的田園詩式描述,圖像也以俯拍或平視居多,土壤被枝葉遮擋。在搜索引擎中輸入“花生”關鍵詞,前20張圖片里僅有3張清晰展示地下果實,其余多為采摘后的帶殼花生或加工食品。
比如,360百科“花生”詞條“植物簡介”欄目:
![]()
久而久之,模型把“花生”與“枝頭”建立了強相關,把“地下結果”這一罕見像素組合當成了噪聲,直接過濾。
其次,常識在訓練目標里被打了“低權重”。擴散模型的損失函數只關心“像不像”,不關心“對不對”。只要“枝頭掛花生”在人類作品里出現過,哪怕比例極低,也會被當成合法樣例。相反,符合生物學卻構圖單調的“泥土橫截面”樣本因缺乏視覺沖擊力而數量稀少,于是被模型判為“低概率”,在采樣階段被拋棄。
第三,提示詞(Prompt)的“文化濾鏡”放大了錯誤。電商海報要的是“豐收”、“紅潤”、“飽滿”,運營人員輸入的prompt大概率是“red peanuts hanging on green branches, sunlight, warm tone”。模型為了討好prompt,自動把“hanging”實體化,直接把花生安在枝條上——因為prompt里沒有“underground”這類負向約束,也沒有“pod develops after peg drills into soil”的植物學知識。
最終,當用戶輸入“花生果實”時,系統可能優先匹配“果實懸掛”的視覺特征,而忽略其土壤中結果的生物特征。
更深層地看,這是“通用大模型”與“垂直領域科學常識”之間的斷層。這次良品鋪子的笑話可能只是冰山一角:蓮藕長在池塘泥里,卻被畫成樹上吊瓜;蝙蝠用回聲定位,卻被描繪成張著嘴“看”東西。
只要訓練目標依然是“擬合人類偏好”,而非“對標常識”,這種“弱智”不是 bug,而是系統設定。
與其嘲笑良品鋪子“AI背鍋”,不如追問:
我們何時才能擁有一個把《十萬個為什么》真正讀進去的模型?
營銷部門使用“AI一鍵出圖”的確省了設計費,賠進去的是企業品牌的信用。
這也說明在使用AI工具時,一定要慎之又慎。
良品鋪子事件中,設計師可能僅輸入“花生”關鍵詞,認為花生生長于地下是一種顯而易見的特征(也可能沒有這種知識),并沒有告訴AI,導致AI在創意生成時自由發揮。
這種“模糊指令+AI補全”的工作模式,由于節省費用成本的驅動,在電商行業普遍存在。
比這個笑話更值得警惕的是:當我們過度依賴AI而放棄自己的判斷力時,會不會犯下更多更可笑的錯誤?
根據公開信息,無法準確判斷良品鋪子具體使用了哪一款AI圖像生成工具,可以肯定是一款能夠根據文本描述生成圖片的AI模型。
借助已知的模型特征庫,可以把范圍縮小到以下三類主流工具:
1.Stable Diffusion系列(含國內二次封裝)
? 畫面特征:紋理細節豐富,但容易出現“背景過銳、主體邊緣發虛”的經典擴散偽影;對中文提示詞的理解偏弱,花生被直譯成“長在枝頭的堅果”概率高。
很多國內電商運營用的是“SD-webUI+LoRA”一鍵出圖,默認會留下“Software: Stable Diffusion webUI”或“Model hash”字段,如果原圖沒被平臺二次壓縮,可用 EXIF 查看器驗證。
2.Midjourney V6
? 畫面特征:色彩飽和、光影戲劇化,喜歡給植物打“圣光”;對“red peanut, hanging on tree, warm sunlight”這類prompt會主動加花瓣、露珠等裝飾元素,導致“看起來更像樹上結的”。
分辨率特征:默認1024×1024,放大后可見輕微油畫感筆觸,邊緣呈“蠟筆涂抹”狀。
3.DALL·E3(含ChatGPT內置繪圖)
? 畫面特征:整體干凈、商業插畫味濃,花生殼可能出現過度圓滑、像塑料玩具;文字渲染能力較前兩者好,但細節處(尤其是土壤、根系)常被忽略。
OpenAI在2024年2月開始給C2PA打上內容憑證(Content Credentials),如果海報原圖未經壓縮,可用Adobe“內容憑證”插件看到“Generated by DALL·E3”字樣。
根據上述三種AI的畫面特征,或許有一個簡易的驗證方法:
把原圖裁出花生與枝條局部,放大200%觀察:
? 如果出現“邊緣銳、內部糊”→大概率Stable Diffusion;
? 油亮高飽和且帶夢幻光斑→Midjourney典型;
? 干凈無噪點、殼體塑料感→DALL·E 3風格。
在沒有確切證據之前,上述三種AI均有嫌疑。
當然,也可以用EXIF工具或朱雀AI、Hive Moderation等檢測器跑一遍,看是否殘留SD模型hash、C2PA憑證。
根據上文簡易驗證方法,用Photoshop打開“花生長枝頭”海報網絡圖片,似乎存在“邊緣銳、內部糊”的特征;從輸出的常識性錯誤特征來看,比較符合Stable Diffusion系列(含國內各種易用封裝)的常識性錯誤特征。
真正的“實錘”還需要拿到無損原圖,做元數據或隱寫分析。
本文僅為個人推測,如有錯誤,敬請專家指正。
AI 的“常識”其實就是訓練語料的“平均印象”,訓練語料的質量直接決定了AI的智能水平和可靠性。
訓練語料是AI學習和認知世界的唯一教材,正所謂“垃圾進,垃圾出”。如果語料存在偏見、錯誤或缺乏常識,AI產出的結果就會像“花生長在樹上”一樣荒謬且不可信賴。
語料里錯得多,它就錯得理直氣壯;語料里缺得多,它就缺得理所當然。
高質量的語料是構建可信賴AI的基石,沒有高質量、帶標注、垂直領域的語料,再昴貴的算力也只能訓練出昂貴的復讀機。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.