高手是如何寫AI提示詞的?

京港台:2024-5-29 05:22| 來源:混沌學園 | 評論( 2 )  | 我來說幾句

高手是如何寫AI提示詞的?

來源:倍可親(backchina.com)

  你真的了解你的AI助手嗎?

  想象一下,你和同事使用相同的AI工具,但為何他的工作效率總是高出一截?秘訣可能就藏在那些看似簡單的提示詞里。精準的提示詞是解鎖AI潛能的關鍵,它們能讓AI更好地理解你的需求,從而提供更準確、更高效的回答。

  編寫提示詞,好比電視節目中記者採訪名人、企業家,需要提前準備好問題腳本,節目的效果與提問的內容、方式和用語息息相關。

  但是,編寫提示詞並非人生來就會的技能,因為人與AI之間存在著溝通障礙——它常常不明白我們的意圖,僅通過概率推測要回答的內容,最終導致提供給我們的答案無法讓我們滿意。

  心理學有個術語,叫「知識的詛咒」,它表示我們一旦知道某種知識,就很難想象不知道這些知識時的情況,這種知識反而成了溝通的障礙,我們的知識「詛咒」了我們。我們很難與他人分享這些知識,這不僅會發生在人與人之間,也會發生在人與AI之間。

  為了破除我們與AI之間的知識詛咒,混沌AI研習社導師李楨在混沌APP上進行了一場直播,從成因到解決措施,面面俱到地分析了提示詞的重要性,並分享了編寫提示詞的錦囊妙計。幫助混沌的同學們提升了與AI之間的溝通效率。

  以下為直播筆記:

  授課老師 | 李楨  混沌AI研習社導師 工信部人工智慧創作師主講人

  知識的詛咒

  你是否曾對AI發出指令,卻得到一個驢唇不對馬嘴的回答?這可能是因為AI並沒有真正理解你的意圖。這就像心理學中的「知識的詛咒」——一旦我們掌握了某些知識,就很難想象不知道這些知識的人會怎麼想。

  這種現象不僅存在於人與人之間的交流,也普遍存在於我們與AI的互動中。我們以為自己表達得很清楚,但實際上AI可能並沒有「get」到我們的點。

  清華大學的劉嘉教授在混沌的課上講述過一個很有趣的現象,在我服務的企業中他們也常對AI有類似的誤解。劉嘉老師說,很多企業對AI有巨大的認知偏差,以為現如今的AI大模型能像以前的智能助手一樣,自動完成各種任務。

  AI其實可以分為兩大類:特定任務人工智慧(Task-Specific AI, TSAI)和通用人工智慧(Artificial General Intelligence, AGI)。TSAI就像是專業領域的專家,專註於解決特定類型的問題。在機器學習中,任務(Task)是指一個特定的預測問題,而域(Domain)則是指該問題的輸入和輸出的空間。Artificial General Intelligence是一種能夠像人類一樣思考、學習和執行多種任務的人工智慧系統。

  

  如何理解?

  有兩種描述方式:第一種,從AI是封閉環境還是開放環境進行區分;第二種,從AI執行的策略是動態還是靜態進行區分。在我們的生活中,人臉識別系統就是一個封閉環境和靜態策略;打敗李世石的AlphaGo是封閉環境和動態策略;《王者榮耀》是開放環境和靜態策略。今天的AGI、ChatGPT-4、自動駕駛技術就是最終的開放環境和動態策略。

  也就是說,現在我們所說的AI與以往認知的AI大不相同,我們應該以全新的視角看待它。

  OpenAI公司開發的ChatGPT-4是典型的大語言模型,能夠理解和生成文本,像人類一樣與人進行交談。雖然它的表現看起來很類似人的思考,但實際上它並不理解它在說什麼,也沒有情緒、觀點或意識。它僅僅是根據它所被訓練的大量文本進行模式匹配和文本生成。

  我們將這類模型稱為預測模型。它最擅長的事情包括Learn、Predict、Make、Understand和Do,也就是學習、預測、使用、理解、以及做。其中,預測的能力值最高,這也是我叫它預測模型的原因。

  在AI擅長的功能里,學習是通過什麼機制實現的呢?——答案在於網路神經。

  網路神經的結構模仿了人類大腦的神經元連接方式。人類大腦中的神經元通過突觸相互連接,而網路神經中的節點通過權重(即媒體常說的「參數」,我的描述是「職業病」)相互連接。

  提示詞觸發資料庫里的選項,牽涉著回答的質量。因此,每個人給出的提示詞不一樣的話,得到的回答也會大相徑庭。很多朋友跟我反映,ChatGPT的回答常常很跳躍,讓人難以理解,其實這跟提示詞的準確度相關。

  遇到此類情況,可以試一試連續性想法,讓我們一步一步思考。我舉個例子便於大家充分理解:

  假如小明手裡有5個棒球,還有三桶棒球,一個桶能裝5個棒球,棒球被打飛了3個,掉進池塘2兩個,問小明手裡還剩下幾個棒球?

  我分別使用兩種提示指令,第一個為「小明有幾個棒球?請一步一步地思考回答」,第二個為「請問小明有幾個棒球?跳開運算步驟直接給答案」。

  這是我獲得的答案的對比圖:

  

  從結果可以看出,不同的指令將會帶來不同的回答結果。這也能夠反映出我們在向ChatGPT提問時常出現的問題:它常常不明白我們的意圖,僅通過概率推測,最終導致提供給我們的答案不能讓我們滿意。這種情況被稱為AI幻覺,這些不準確的答案並非語言模型故意撒謊,而是因為用於模型的訓練數據中不包含正確回答問題所需的必要信息。例如,ChatGPT 的訓練中未包含 2021年9月後的任何數據,因此如果您詢問這類數據,ChatGPT無法準確回答。

  不僅如此,AI超強的生成能力還會致使這一情況惡化,導致我們與它的溝通越來越偏離軌道。也就是說,你花了很長時間跟它溝通,它也貌似理解了你的問題,但最終卻給出一個邏輯上通順、實則錯誤的答案。

  要解決上述問題,需要我們在寫提示詞的時候保證準確和清晰,一步一步地引導AI, 幫助它避開「知識的詛咒」,確保溝通的有效性。

  認知偏差

  AI PPT是當下的熱門,但它並不能真的做到一鍵生成PPT,市面上所有的AI PPT工具都沒有達到理想的標準。這些AI PPT雖然各有特色,但功能相對有限,可能無法滿足高度專業化的需求。

  現在的AI公司在宣傳自家產品的時候,往往試圖用一句話打動用戶,常常用一個產品視角做產品,完全不在乎生產PPT的邏輯,僅能生成一個PPT的結構。在職場中,這些用AI生成的PPT基本上不能用,因為它沒有理念,也沒有格局,數據處理也不夠出色。

  我不是全然否定AI PPT,它也有使用的價值,比如它能幫我們打磨一下PPT。在這一過程中,我們會發現,AI都在通過大數據模仿和學習人類,是否人類也需要學習一下AI呢?

  在機器學習法中,有一種方法叫分治法。分治法的意思是將一個大問題細細地拆解成具體的小問題、具體的要求,通過對這些子問題的逐一解決,然後再將解決方案重新組合起來,最終形成對原始問題的完整答案。

  AI PPT的隱含假設是你給出標題,它自動生成內容。它的底層邏輯是,當接到指令后,拆解出各個問題,也就是大綱,再基於大綱的方式單點打磨每一個大綱,形成PPT。因此它生成的PPT並不是你真正想要的。

  真的好的做法是什麼?那就是明確表達出這些隱含的假設。

  我示範一下如何生成大綱:

  

  首先,在生成彙報大綱時,我要求它圍繞著主題生成8個版本;其次,我要求每個版本包含6個一級大綱,而不要二級大綱;接著,在一級大綱里加上自己的觀點,回歸創意流程的拆解,再在二級大綱中植入觀點。像剝洋蔥一樣,逐層深入。

  我簡單說一下PPT的製作邏輯。

  創造力源自流程化思維,通過文檔輸入,然後內容以Markdown的格式生成。Markdown是一種輕量級標記語言,用於書寫純文本文檔,並可以轉換為HTML格式。它通過簡單的標記語法來讓文本具有不同的樣式,如添加標題、列表、鏈接、圖片等。它適用於簡單的文章、源程序說明等,不太適合複雜的數學公式、圖表等。得到Markdown格式的文件后,就可以在幾乎所有網站上方便地使用它。

  AI提示詞是需要進階的

  可以說,提示詞的用法也是逐漸進階的。在進階思路里,我們看似用中文與AI進行溝通,但其實提示詞是一種獨特的溝通語言,而要培養進階思路,需要分三個步驟:

  首先,第一步叫對話式交流。也就是我們與日常接觸的AI最常做的溝通。比如,OpenAI的ChatGPT,百度的文心一言等。通過與AI的對話,我們會解答一些自己不了解的問題,比如詢問某個數據,掌握某個行業的動態。

  如果我們是一名準備法考的學生,向AI諮詢考試該如何準備,交流式AI就相當有用。但如果我們已經是一名專業律師,需要向它諮詢一些深入的行業知識,就會發現它能給到的幫助十分有限。這時候我們就需要進入到第二個階段。

  第二個階段為新生式培養。AI很多時候不能理解我們的意思,我們可以通過培養式交流來提升它的理解能力,當你培訓它一個模塊和內容之後,會發現它能給你更貼切的幫助。比如你先對它進行公司介紹,展示公司的優缺點,好讓它明白你的喜好、目的和意圖。但這是否意味著問題已經解決?有時候當你給它喂材料的時候,會發現它吸收不了,那是因為輸入的文字數量超標,到達了它理解的上限。這時你會發現一個很大的問題,AI也會遺忘。而這時就要進入第三階段,叫做編程式迭代。

  通俗來說,編程式迭代也就是用自然語言的方式寫程序代碼的過程。我示範一下用編程式指示詞和其他指示詞讓AI對同一要求作出解答。

  第一種指示詞方式,我告訴它:「我們計劃與XYZ AI公司展開合作。關於這次合作,需要你制定一個框架協議。請儘快準備一個初步方案,我們將在後續討論中進一步細化。希望能在未來幾天內看到你的進展。」

  很多企業的老闆一般會使用這樣的方式,看似把一件事情說清楚了,但其實是站在自己的立場上,而沒有充分考慮AI如何理解和執行這些指令。

  第二種為編程式提示詞,在其中,我會告訴它我諮詢它的目的、需要注意的地方、合作邊界以及目前的局面等內容,並要求它出一個詳盡的方案,用商業的語言寫,於是我得到了以下更加全面和深入的回復:

  

  提示詞不同,得到的方案存在著明顯的優劣。這說明AI的工作效率與提示詞緊密相關。如果我們不能學會如何很好地發布提示詞,AI在我們手裡則不能發揮最大的價值。因此,學習寫提示詞這件事十分有必要。

  接下來展示一下我為小紅書推廣文案寫提示詞。簡單講述一下這一類的提示詞應該怎麼寫。

  

  用混沌的話來說,小紅書的第一性原理為「本能」,因為它的特點是讓網友用最省力的方式獲取信息,並且能夠享受到及時的快樂。我需要告訴AI想要的句式,正面刺激和負面刺激分別是什麼。此外,融入一些關鍵詞,特別是小紅書上的熱門搜索詞,經典的句式和關鍵詞結合,最後就生成了內容。

  回到原來的話題。在此我想重點提醒一下,在我們讓AI通過我們要求的句式再結合熱詞生成方案時,需要再加上一些自己的觀點,這樣出來的內容更有人情味也更具自己的風格。

  AI的多模態的理解

  AI可以一次性搞定問題嗎?現階段絕對不行。比如假設我讓它幫我寫一個Excel VBA腳本,製作一個餅狀圖,表示出各個區域里全脂牛奶和酸奶之間的對比。可能會發現結果並不盡如人意。

  隨後它給了我反饋,包括東城區13%、石景山區29%等等。但當我自己再去仔細對比數據,發現它給出的回答都是錯誤的,幾乎全對不上。後面我讓它用原始大模型的方式給我反饋,直接要求它做一個VBA的圖形腳本,後面它給帶我一個代碼,我用Excel打開后,發現答案是正確的。

  這說明什麼?

  在此我需要告訴大家一件事情,叫「大模型的三種原生內容生成方式」。現在市面上的文心一言、通義千問等,它們的核心原生方式有三種:

  第一種是文生文,最簡單的方式是按照用戶的需求直接生文字。

  第二種是生成表格,顧名思義,可以生成表格。

  第三種是寫代碼。

  多模態則是跨越這三種原生作用延伸出來的模型。‍多模態是一種將來自不同模態的數據(如圖像、文本、聲音等)結合在一起,以創建一個綜合的數據表示的技術。它涉及到不同模態的數據的編碼、融合、交互等過程,可以提高學習演演算法的性能和準確性,有效處理不完整或不準確的數據,處理複雜的任務。‍

  在原生能力之外,AI的其他內容生成形式還有哪些?我總結了一下,大概包括瀏覽文檔、圖標數據、商業信息查詢等。這幾種功能很多AI產品已經發展得相當成熟了,比如百度的文檔、文心一言的圖表。使用這些工具時,通過提供更具體和詳細的提問指令,包括字數限制和風格要求,你可以幫助 AI 生成更準確、更相關且質量更高的內容,以滿足特定場景的需求。

  因此,如果我們使用大模型工具並不順利時,可以再看看是否寫對了提示詞。提示詞要基於原生能力構想,這樣AI才能明白我們的意思,幫我們處理問題。

  AI的角色該怎麼寫?

  接下來我們來看如何有針對性地設定角色?

  角色就像是做一個名人訪談,給AI設定一個角色,這樣AI在解答問題時,可以從這個角色的角度展開講解。

  這裡我總結了四種方式,分別是角色式提示詞、示例式提示詞、角色扮演式提示詞、模擬式提示詞。

  角色扮演式提示詞要求我們扮演某個人,以某個人的視角和立場思索問題,比如,問投資問題的話就扮演成巴菲特,問法律問題的話扮演成羅翔老師,問創新相關的問題扮演成李善友教授。另外,還可以為受眾人群設置一個角色,比如小學三年級學生,AI在解答問題時,會用人群熟悉的場景來解釋,降低理解成本。

  通過角色扮演寫提示詞,AI的回答往往更具有專業度,因為大數據都知道這些有知名度的角色,AI可以通過大數據了解你這個角色的側重點,從而讓你得到的信息反饋更加有用。

  我做了一個實驗,讓AI分別以馬斯克、馬雲和任正非的立場設想出同一問題的不同視角。我對它發出指令:「請你扮演我的企業教練,團內有3名專家。3名專家分別是馬斯克、馬雲和任正非,他們都有自己的個性、世界觀和價值觀,對問題有不同的視角、看法和建議,我會在這裡說出我的處境和我的決策,請分別以這3名專家的身份和視角來審視我的決策,並給出評判和建議。不少於1000字。」

  我們來看它的回答:

  

  它給出的馬斯克的視角突出了馬斯克自己一再強調的創新;馬雲視角則注重洞察市場;任正非重視團隊組建。

  此時你會發現一個問題,角色定得太弱了,我們還需要對角色設計進行深化。要實現深化,首先要對角色劃分屬性和能力,擬定兩個不一樣的角色,其中一個為概念性問題,另一個為應用性問題。概念性問題是對問題的定義,應用性問題針對該如何做。在定好角色后,則進入了下一步驟,分為「5個W和1個H」:Who、Where、What、When、Why和How。

  通俗來說,也就是:

  角色的身份和職責是什麼?

  角色的關鍵節點與階段是什麼?

  角色為什麼如此重要?

  ……

  我們看一個實例:

  第一種情況,我對它說「請扮演一名XX區域營銷人員,請給我5個提高未來星在區域的市場佔有率的方法。」

  它對此的回答:

  

  第二種情況,我對它說「你是XX集團華北區的低溫奶區域拓展營銷人員,需每月定期跟進該區域的客戶,了解各大超市相關產品的進銷存情況。請分析品類細微變化,制定區域分銷策略,了解競爭對手的同比銷售情況,包括新品推廣、用戶人員變化等。並且能通過數據及客戶反饋,了解真正使用低溫奶用戶的消費情況、消費頻率和周期等。請給我5個提高XX區域的市場佔有率方法。」

  對此它的回答:

  

  兩則回答相對比,會發現,前面一則明顯是正確卻空洞的廢話,應該沒有提出具體可實施的策略,而後面一則是結合我描述的情況作出了一些可操作的指南,所以明顯後面的回答更具價值。

  因此,在寫提示詞時,我們需要對角色有更精細的定位,這樣才能得到具有實踐意義的建議,不然都是一些喊口號的內容,不具有太高的價值。

  如何寫提示詞和AI互動?

  怎麼寫提示詞才能跟AI更好互動?

  我這裡給到的建議是「遇事不決,問AI」。也就是說,當我們在提問的過程中,我們可以直接讓AI幫忙寫提示詞,這樣可能會解決提示詞新手很大部分問題。比如,我需要寫一份2024年的年度計劃,但是我不讓AI直接幫我生成計劃,而讓它給我一個結構,通過結構,我們就可以把相關的問題提取出來,然後應用。

  在長期的對話過程中,可以總結和歸納一套提示詞詞庫,以此作為寶典,在後續與AI的交互中使用,這樣你寫提示詞的能力就會逐步上升。

  最後,我們來分析一下,是否能控制AI不亂說話。

  AI總是亂說話成為很多人詬病的原因,因為它雖然擅長總結,但經常答非所問。這時候,我們可以與AI建立規範,特別是已經成為生產力標準模板的提示詞框架里,更需要這樣的規範。

  如何規範?可以跟它建立一個溝通規則,以此確保整個溝通過程符合所有原則。比如,很多AI不明白一個問題時常常強調自己是AI,為避免它說廢話,可以規定「我知道你是一個人工智慧,你的回答代表你的分析。不需要重複強調這一點。

  如何控制AI不亂說?

  另外,為了避免AI出現幻覺,我們可以通過提示詞引導它一步一步地思考,這樣有助於我們理解和評估答案的可信度和準確度,提示詞可以寫成「請在回答我的問題時描述你的思考邏輯。這樣做的目的有助於我們理解和評估答案的可信度和準確性。最終出來的結果可能要好很多。

  這個過程需要你保持耐心,因為AIGC的基礎模型是概率論,它的運行準則不是幫你找準確的數據,而是基於概率,拼湊出一個看似合理且邏輯縝密的答案。可見,它的思考流程與人類迥然不同,也正是因為如此,才嘗嘗出來我們所說的「AI幻覺」。

  再者,AI常常不能理解我們的指令,尤其是那些複雜的問題。這時你可以規定它「請在執行我的任務前確認你對指令的理解,並提出任何缺失的關鍵因素。」我們與AI是一個溝通的合作關係,你問它問題,它為了回答你的問題也可以反問你一些它困惑的內容,這樣才能產出一個優秀的終極答案。

  現在的大模型與以前的智能平台有所不同,現在我們需要在與AI的溝通中反覆打磨,不斷形成邏輯概念,以此避免溝通中的錯位。很多時候,AI讓我們失望,是因為我們自己提問的時候思維也是跳躍的,導致與它的溝通並不通暢,自然也無法達到你想要的結果。就好比團隊成員之間存在信息差,導致效率低下一樣。因此,我一再強調,我們需要跟AI有很好的溝通,才能寫好提示詞。

  最後,我跟大家普及一下,哪些AI工具比較實用。如果是電商領域,我推薦通義;如果是文書寫作,百度的文心一言比較合適;如果是教育領域,科大訊飛更好。其實,在某種意義上,大模型本身差別不會很大,重要的是你是否掌握了使用它的能力,而寫好提示詞就是其中關鍵的一步。

        更多科技前沿 文章    >>

關於本站 | 隱私權政策 | 免責條款 | 版權聲明 | 聯絡我們

Copyright © 2001-2013 海外華人中文門戶:倍可親 (http://big5.backchina.com) All Rights Reserved.

程序系統基於 Discuz! X3.1 商業版 優化 Discuz! © 2001-2013 Comsenz Inc.

本站時間採用京港台時間 GMT+8, 2025-10-8 03:17

返回頂部