從失望到精通:AI 大模型的掌握與運用技巧(2)
現在 AI 很智能,但是 AI 產品并不智能。ChatGPT 官方聊天頁面只有一個輸入框,似乎秉承著 “Simple is Better” 的理念,但很多時候并非越簡單越好,使用 ChatGPT 經常需要輸入相似的提示詞,用起來效率極低。
下面將從四個方面簡要解釋如何通過預定義提示詞提高輸入效率。
單平臺層面,如果你使用 ChatGPT 官網,推薦 ChatGPT Prompt Plus 插件,支持自定義提示詞,可以快速呼出,還支持提示詞中定義變量,支持為提示詞分組,在呼出提示詞時選擇或者填寫即可進行提問,非常方便。下圖就是通過該插件預定了 “解釋某句” 的界面,可以將需要填寫的內容定義為變量,使用時呼出后填充即可。
直接通過 “/解釋某句” 即可呼出,不需要每次都輸入重復的提示詞,每次只需要必要的內容,如這里的內容和問題即可自動拼接好提示詞發送給 ChatGPT 進行提問。
如果你使用 Poe 平臺,可以在平臺上預定義機器人,具體方法和上面大同小異,感興趣可以自行研究。
瀏覽器層面,可以通過安裝 ChatGPT Sidebar 這類的 AI 插件,可以在頁面上選擇一段內容后,直接選擇內置或預定義的提示詞進行處理即可。
在輸入法層面,可以通過自定義短語設置,來預先定義提示詞,輸入內容時,可以通過輸入縮寫自動填充提示詞。
在通用方法層面,你可以利用 Alfred 的 Snippets 功能(支持將剪切板內容作為變量自動替換預定義提示詞中的占位符)或者 utools 的備忘功能,來預定義并快速粘貼提示詞。
在使用 AI 工具時,如果回答不滿意,可以檢查自己的提示詞是否真正符合“清晰具體、重點突出和充分詳盡”的原則。如果調整優化提示詞還是得不到想要的答案,可以嘗試通過下面的方法解決。
有時候你以為你表達很清楚,其實模型理解和你的表達有偏差,你可以嘗試讓模型重述你的任務,你可以根據他的重述發現偏差,對提示詞進行針對性糾正。
對于提示詞并不是很復雜,但是模型似乎不能很好理解你的意圖的情況,可以考慮使用英文提問,有時候會有奇效。這可能與模型的語料中英文占比更多,模型更擅長英語有關,也可能是中文提問優先匹配中文語料,但是中文語料質量不高原因導致的。之前就遇到過一個技術問題,用中文對 New Bing 提問很多次都沒得到想要的答案,換成英文提問,一次就得到了靠譜的答案的情況。大家如果英文不好,也可以采用“套娃”的方法,如讓 ChatGPT 幫你翻譯成英文提示詞再對 ChatGPT 進行提問。
如果模型理解無誤,使用英文提問也沒有效果,建議換更高級的模型。在我看來不同的模型就像不同層次的學生,比如有些模型可能是中學生水平,有些模型可能是高中生水平,有些模型則相當于大學生甚至研究生水平。而且不同的模型的擅長之處也有所不同。因此當提示詞已經寫得很好,但模型回答并不滿意時,有條件可以考慮切換到更強大的模型。在我的實際中,能夠明顯的感覺到 GPT-4 在大多數任務上都會比 GPT-3.5 回答更好,未來或許還會出現更強大的模型。
當使用更高級模型也得不到滿意的答案,說明當前任務對大模型來說過于復雜,此時可以考慮任務分解。對于復雜任務,建議大家先進行拆解,拆解到模型比較容易完成的步驟,然后每個步驟讓模型去完成,往往效果更好。比如你想讓模型寫出一個類,可以拆解成不同的函數,然后每個函數讓模型去寫。
當嘗試上述方法還是效果不滿意時,可以嘗試任務接力。所謂“任務接力”是指,將任務拆解后分步驟讓 AI 分步完成或者人與 AI 分工合作完成。比如寫代碼,你可以開一個對話窗讓 AI 寫代碼,用另外一個對話框讓 AI 去找出其中的問題,再讓 AI 工具優化代碼。比如寫稿件,你可以讓 AI 寫目錄供自己參考,也可以讓 AI 寫草稿自己優化或者你自己直接寫稿子,最終再讓 AI 去潤色。這樣復雜任務通過每個步驟拆解成 AI 比較容易完成的粒度或者通過將簡單重復的任務分配給 AI ,將復雜 AI不擅長的部分分配給人,可以實現更好地效果。
2.2.4 上下文丟失問題在使用 AI 工具過程中,經過多輪對話之后,你可能會發現模型已經忘了最初的任務是什么。
對于這種情況,最簡單的處理辦法就是重新開一個對話窗口,重新表述問題,繼續處理后面的材料。
如果步驟特別多,需要重新開太多對話非常麻煩,可以嘗試下面的方法。
前面講到模型重述任務有助于檢查模型是否真正理解任務,在我看來對上下文丟失的問題也有幫助,如果你的任務需要多輪對話才可以完成,可以嘗試沒隔幾輪對話問 AI 任務是什么,通過提醒可以降低“遺忘”的概率。
我在實踐過程中經常使用“簡述任務”這一方法。例如,當需要讓模型概括每個段落的重點時,我會在第一個提示詞中詳細寫明要求。然后,在第二輪發送段落前,我都會重述或簡述這個要求。這樣即使模型忘記了最初的任務,也能根據第二輪之后的簡述完成任務。如“請按照我最初的要求,繼續提取下面段落重點發送給我。段落內容:XXX”。
如果模型確認或者簡述任務方法還不能解決問題,側面說明這個任務可能對于模型來說有些復雜了,建議可以將任務進一步拆解,讓每一個 Chat 界面只做其中的一個步驟或者有些步驟讓 AI 來做,有些步驟讓人來完成。
2.2.5 回答可靠性問題很多人用大模型時偶爾會碰到明明回答錯誤,但是大模型回答的卻很有自信的情況,很容易被大模型所“唬住”。
建議對于自己拿不太準的問題可以問多個不同的模型,他們答案之間相互印證,降低都“胡說”的概率。有時,對于相對嚴謹的內容,可以將 AI 的回答僅作為基本參考,并需結合傳統的研究方式,如使用搜索引擎、查閱論文和其他資料等。
最關鍵的還是自己要具備辨識能力。因為即使不是 AI 時代,你讓其他人幫你準備材料,如果你沒有足夠的辨識度,也很容易出現問題。雖然 AI 能夠提高我們的效率,但是我們比以往更需要提高專業素養,提高對信息真偽的辨識能力。
2.2.6 如何更好發收費模型的價值以 ChatGPT 為例, GPT-3.5 目前免費使用, GPT-4 則需要開通 Plus 服務,而且還有每 3 小時 50 個 message 的限制(未來有可能進一步提高,甚至完全放開)。在 Poe 平臺上,ChatGPT 和 Claude 也分為免費版和收費版本,收費版也有次數限制。
很多簡單的任務免費的模型就可以做的很好,優先可以使用免費模型進行處理。對于復雜的任務,可以安排給收費模型進行處理。
在使用收費模型時,可以將多個步驟合并成一個提示詞,節省收費模型的調用次數。
可以使用免費模型產出草稿版本,然后讓收費的高級模型進行二次優化,這也是一個不錯的選擇。
2.2.7 業務接入大模型接入經驗現在很多公司開始自研大模型,很多業務也開始接入大模型,下面談談業務接入大模型的一些經驗,掌握這些經驗可以讓你少走一些彎路。
大模型不是萬能的,我們不應該“為了使用 AI 而使用 AI”。就像汽車雖然方便快捷,但不是在所有情況下都是最佳選擇。在實踐過程中,我們發現某些任務通過工程化方式解決效果更佳且成本更低。因此,在接入大模型時,我們需要權衡哪些任務適合工程化解決,哪些任務更適合用大模型來解決。
在正式接入模型之前,需要確定模型的效果評估標準,這樣才可以發現模型的不足,針對性優化。我們還需要確定可進行工程化開發的前提,比如生成的代碼采納率在 50%,生成的段落達到 80 分以上等。如果我們過早進入工程化開發,產品可能上線后長時間達不到預期標準,甚至可能永遠無法達成,從而導致產品可用性較差,并浪費大量資源。
有些復雜任務需要對模型進行微調,需要大量的人工標注,以及評估模型效果工作。為了提高效率,建議大家可以自己編寫腳本,或借助 AI 模型進行輔助,實現自動化或半自動化的流程。
在將 AI 模型落地到業務的過程中,開發人員雖然熟悉業務,但可能不了解模型優化的方法;算法人員雖然更專業,卻可能對業務不夠了解。因此,想要不斷優化大模型的效果,就需要開發同學和算法同學通力合作。而且由于有些公司大模型團隊的算法人員緊缺,很多業務又想盡早上線,有些開發人員也開始親自訓練大模型。但缺乏專業指導可能會導致許多優化思路不科學,從而會走許多彎路。因此,建議大家在考慮將業務加入 AI 能力,讓 AI 為業務提效時,增加算法同學的投入,讓算法和開發同學通力合作,更好地解決問題。
或許,提示詞只是大語言模型發展早期階段的一種折中方案??梢灶惐葹槠嚨陌l展,從手動擋逐漸演化到輔助駕駛和自動駕駛,未來我們和大模型的交互可能也會采用更先進的方式,如腦電波、意念等。
雖然 ChatGPT 的出現讓人眼前一亮,但是大語言模型還存在很多其他待解決的問題,現在還需要我們去遷就它。
不過,在我看來,這卻是一件值得慶幸的事情。正是因為 AI 的不完美,我們才沒那么容易失業。
在 AI 發展的當前階段,我認為最重要的是學好提示詞,掌握 AI 工具的最佳實踐,才能成為最早一批靈活駕馭大模型來更好解決你生活和工作問題的人,才能在 AI 時代的早期取得一些競爭優勢。希望本文提供的一些經驗能夠讓大家少走一些彎路。
你在 AI 工具使用中還有哪些經驗?你對當前大語言模型的發展有啥看法?歡迎大家在評論區進行評論補充和討論。
*博客內容為網友個人發布,僅代表博主個人觀點,如有侵權請聯系工作人員刪除。