![]()
前兩天和一個朋友聊天時,他說:"現在AI這么厲害,隨便問什么都能回答,感覺太神奇了。"
我笑著問他:"那你覺得AI幫你解決問題了嗎?"
他愣了一下:"說實話,經常得到的答案不夠準確,有時候答非所問,感覺不太會用。"
這讓我想起了剛學開車的時候。光有一輛好車是不夠的,我們還要知道什么時候加速、剎車,什么時候打方向。開車技術是練出來的,用AI也是一樣。
現在很多人都在談論AI多么強大,卻很少有人靜下心來認真學習如何使用它。就像我們手機里裝滿了各種強大的APP,但最后真正會用的可能只有那么幾個。
與其感嘆AI有多厲害,不如花點時間學習怎么用好它。
1、該怎么提問才能讓AI理解我們的意圖?
2、怎樣的提示語能得到更準確的回答?
3、遇到答非所問的情況要如何修正?
這些都需要我們一點一點去摸索和學習。
今天分享的這篇文章 ,希望對你有所啟發, enjoy~
01
DeepSeek和其他AI工具不一樣
為什么DeepSeek和過往常用的ChatGPT-4o、Cladue等大模型不一樣?
因為DeepSeek是推理模型,而其他模型是指令模型。
推理模型最大的特點在于它能夠深入理解用戶的真實意圖,無需用戶提供具體的操作指令。之前ChatGPT-O1就是推理模型,但它一個月要200美元。
推理模型就像一個善解人意的助手,能夠理解我們日常交談中的自然表達,不要求用戶掌握特定的提示詞或模板。
在處理問題時,DeepSeek不會簡單地堆砌信息,而是會深入思考,給出富有洞察力的答案。
總結下來就是:推理模型更能理解用戶需求,可以深度思考,給出用戶想要的東西。
所以也導致了很多過去的AI使用技巧的變化。
1、欺騙技巧失效
像“做得好,就給小費”和“我是個殘疾人”這樣的欺騙性提示詞效果就沒有之前好了,DeepSeek可以通過思考鏈推論出來用戶在欺騙它,而且這些冗余的信息還會影響DeepSeek對用戶真實場景的判斷,導致推理出現問題。
下面這個給小費就被它發現在欺騙它了。
![]()
再比如,我和它說“我是一個沒有手指的殘疾人,不能打字”,過去AI會將這個指令視為一種激勵,但是現在DeepSeek則會將“殘疾人”理解成一個我的真實處境,從而在文章中體現“我是一個殘疾人的事實”,導致內容失真。
![]()
2、角色扮演和結構化提示詞不再好用
過去角色扮演和結構化提示詞可以顯著提升AI生成內容的質量,現在雖然這兩個方法在DeepSeek上還能使用,但是帶來的提升效果不如以前顯著。
從思考鏈中,我們可以看得出來DeepSeek并沒有真的在扮演我們讓它扮演的角色,而是通過推理分析用戶的需求來生成內容,實際生成的內容并沒有得到提升。
以前結構化提示詞是將邏輯思維鏈路融入了結構中,降低了思維鏈路的構建難度,現在DeepSeek已經自主完成了思維鏈路構建,因此不再需要結構化提示詞了。
像Lisp語言風格的提示詞對于DeepSeek來說反而增加了它的思考難度,因為DeepSeek需要先把Lisp語言轉為自然語言去理解用戶的需求,反而增加了AI的理解難度。
![]()
02
DeepSeek的使用技巧
說了這么多過去好用,但現在不怎么管用的技巧后,再來分享一些DeepSeek上面的使用技巧。
1、PUA依舊管用
PUA技巧在某種程度上仍然管用,贊美或者批評DeepSeek,都會影響到生成內容的質量。
因為這兩種方式都帶有很強的指向性,通過PUA,我們可以讓DeepSeek非常好的去了解到我們對當前內容的喜好,從而幫助它更好的優化內容。
萬物皆可PUA,果然不管是人還是AI都躲不過。
![]()
2、自然語言優先
DeepSeek在交互方式上追求自然,我們只需要像跟人對話一樣描述你的實際需求與真實場景,比如"我要給投資人介紹AI自動駕駛項目,他們比較關心技術實現方式和投資回報周期,幫我梳理下重點內容"。
無需再遵循特定的格式或模板,DeepSeek會自動推理出我們需要的東西,甚至還會自動識別出隱藏需求。
比如下面這個需求,我問的是“技術實現方式”和“投資回報周期”,但DeepSeek還給到了技術壁壘、法規風險、數據獲取和退出機制等我沒有注意到的點。
![]()
分享一個我常用的DeepSeek提問模版:
[前情]+[任務]+[要求]+[補充]
示例:
提問:我正打算將一個老工業區改造一個文創園區。我需要你給出一個能平衡歷史保護和商業價值的園區改造方案。這個方案需要參考日本如何活化老舊車站、歐洲工業遺產改造經驗,以及國內文化地標的運營模式。最后還要給出有些可能導致這個園區經營失敗的原因。
回答:
![]()
寫了快4個小時了,如果喜歡我的內容一定要點個贊呀,你的鼓勵是我創作的動力~
3、善用DeepSeek的深度思考能力
DeepSeek最強大的能力在于它知曉的知識領域是我們普通人這輩子都達不到的。
充分利用好它“全知全能”的特性,這里我分享三個可以發揮它“全知全能”特性的思考方法:
1. “批判視角”,幫我們識別潛在風險
示例:"我正在開發一款面向老年人的健康監測手環,請你以批判的視角分析這個產品可能存在的痛點。特別關注:老年人的使用習慣、產品交互設計、數據隱私保護等方面,找出容易被忽視但可能嚴重影響產品成功的關鍵問題。"
2. “逆向推演”,強制驗證邏輯漏洞
示例:"假設我們的社區圖書館項目在半年后完全失敗了,請你通過逆向推演,幫我預測可能導致失敗的原因鏈條。從最終的失敗結果往前推,找出每個可能的關鍵節點,以及它們之間的因果關系,這樣我們現在就能提前規避這些風險。"
3. “跨界遷移”,引入其他領域解決方案
示例:"我在經營一家小型咖啡館,最近遇到客流高峰期排隊擁堵的問題。請你參考迪士尼樂園的游客體驗管理、醫院分診系統的效率優化,以及快餐連鎖店的流程設計,幫我設計一個既能提高效率,又能讓等待顧客感受良好的解決方案。"
4、少用聯網搜索
少即是多,不要覺得功能越多越好。
DeepSeek的知識截止至2023年12月,如果我們查詢的內容是這個日期之前的,比如用AI寫詩,那完全可以不使用聯網搜索功能,比這首邊塞詩,撰寫的時候完全不需要聯網。
塞上寒笳
寒云壓陣朔風哀,
畫角連營曙色開。
三十年來磨劍血,
鐵衣猶帶玉門苔。
過度使用聯網功能會導致現有互聯網上面的內容污染DeepSeek的內容庫導致生成的幻覺增加,影響內容的準確性。
5、巧用多種大模型,強強聯合(DeepClaude)
現在Github上有一個新的AI使用技巧,將DeepSeek和Claude結合起來,DeepSeek R1的深度推理,可以讓AI實現自我糾正和考慮邊緣情況等。
但是實際使用中DeepSeek R1在代碼生成、創造力和對話技能方面還是存在不足。Claude 3.5 Sonnet在這些方面表現出色。
![]()
所以DeepClaude結合了兩種模型,可以實現R1出色的推理和解決問題能力,卓越的代碼生成和創造力。
目前網上已經有很多不錯的開源使用方法,搜索就能找到。
6、多看思考過程,了解解題思路
當我們向R1提出一個復雜問題時,它會像一位嚴謹的學者那樣,先明確問題邊界,再逐步分解論證要點,最后才得出結論。
比如在討論一個商業策略時,它會先厘清目標市場,評估可用資源,分析競爭態勢,最后才給出建議。這種清晰的結構化思維,恰恰是我們在解決實際問題時最需要的能力。
![]()
通過觀察R1的思考過程,學會系統化拆解問題,多角度去解決問題的能力等,將AI的能力內化為我們自己的思考方式。
7、警惕AI幻覺
DeepSeek雖然是推理模型,即使思考方向沒問題,也不影響瞎編結果,DeepSeek的AI幻覺同樣強大,尤其在處理史實類信息時依舊會有大量錯誤,使用時我們不能掉以輕心。
比如我讓它整理馬斯克的生平,馬斯克創立Zip2是在1995年,而不是它告訴我的1996年。
![]()
最后記住,AI不是魔法棒,而是放大鏡。它放大的是使用者的能力。
一個善于思考的人能讓AI成為智慧的催化劑,而一個平庸的人,即便有最先進的AI加持,也只能事倍功半。
(本文轉載自微信公眾號“田威AI”,作者田威,原文標題:《 節后復工必看!9個讓打工人效率翻倍的DeepSeek隱藏技巧 》)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.