使用ChatGPT進行用戶體驗文案的內(nèi)容設(shè)計
我們在寫提示詞之前,需要做一些準備,本文將介紹如何做好提示準備、提示技巧和避免陷阱,以及后續(xù)如何有質(zhì)量的進行問答。
本文由作者與沃爾沃汽車公司首席用戶體驗內(nèi)容設(shè)計師、本地傳奇人物、超級詞癡 Annelie Tinworth 合著。
Ben 和 ChatGPT,手牽手,設(shè)計合伙人。這是一張真實的照片,僅供參考。
我們知道你們在想什么:“不會又是一篇人工智能文章吧”,對嗎?
好吧,這篇文章有別于以往,它更具體。來一杯五倍濃縮咖啡吧,希望這篇文章能給你帶來一些啟發(fā)和靈感。??
作為支持大公司眾多團隊的內(nèi)容設(shè)計師,我們知道除了我們之外,還有很多人負責(zé)撰寫用戶體驗內(nèi)容。事實上,我們也知道很多人沒有機會接觸撰稿人或內(nèi)容設(shè)計師。但這并不意味著內(nèi)容不重要,或者對產(chǎn)品用戶體驗的影響不大。
我們的目的是讓大家能夠使用 GenAI,特別是 ChatGPT,來完成文字工作,至少從用戶體驗的角度來看,達到一定的水平。
這里有必要澄清一點:人工智能(AI)是無法取代內(nèi)容設(shè)計師的全部技能的。目前有些人擔心自己被取代,有些公司的管理層也會對現(xiàn)狀有所誤解,但事實并非如此。AI 是有限的,而且永遠都是有限的。
話雖如此,雖然人工智能(AI)無法編寫出出色且完美的文案,但用它可以獲得 “足夠好 “的文字(沒錯,就是 “好”)。(沒錯,在使用 AI 時,”足夠好 “是我們的標準,而不是 “完美”)。
讓我們從主要收獲開始講……
一、Gen AI 是一種工具
很明顯,我只是想再強調(diào)一下。
AI對“錘子”的解讀
有許多不同類型的 GenAI 工具可用于生成視覺效果、視頻、文案等,不勝枚舉。關(guān)鍵是,越來越多的人在整個設(shè)計過程中使用 GenAI。
這很好!我們在這里要說:使用 GenAI。但是,使用時要深思熟慮。
作為內(nèi)容設(shè)計師(又名詞癡),我們最常見的使用案例就是人們使用 ChatGPT 生成文案。我們也非常清楚,一個詞可以決定整個用戶體驗的好壞。
如果您正在閱讀本文,無論您的身份是設(shè)計師、作家、產(chǎn)品經(jīng)理、工程師或營銷專家,您的職責(zé)均可能對您所參與的產(chǎn)品的用戶體驗產(chǎn)生深遠影響。所有致力于用戶體驗領(lǐng)域的團隊成員,均期望通過其工作對用戶在使用我們的數(shù)字產(chǎn)品或服務(wù)過程中的思維、情感及行為產(chǎn)生積極影響。
我們不希望用戶感到沮喪,或者需求沒有得到滿足。因此,整個設(shè)計,從工作方式到外觀感受,都必須準確無誤。
在人工智能(AI)的設(shè)計過程中,若缺乏專業(yè)的文案工作者,如何完成與用戶體驗相關(guān)的文本工作,并確保其質(zhì)量達到一定標準?很簡單。
先思考后提示,先檢查后發(fā)送。
如果您對著鏡子大聲說出這句話 3 次,我們就會出現(xiàn)并給您一個 ChatGPT 提示和一個紙杯蛋糕。
我們將深度探討文案生成過程中的各個階段,探討在缺乏專業(yè)文案人員的情境下,如何確保文案工作的質(zhì)量和有效性。具體內(nèi)容如下:
- 思維模式的構(gòu)建:在使用 ChatGPT 進行文案創(chuàng)作之前,必須完成哪些基礎(chǔ)的用戶體驗工作?這涉及到對用戶需求的深入理解以及對產(chǎn)品特性的全面把握。
- 提示原則的應(yīng)用:為了最大化使用 ChatGPT 獲得理想的文案效果,我們應(yīng)該如何制定有效的提示策略?本文將提供一系列經(jīng)過驗證的文案和提示示例,旨在幫助用戶規(guī)避常見的陷阱。
- 質(zhì)量檢查流程的確立:如何評估生成文案的質(zhì)量是否達標?文章將討論生成文案后應(yīng)進行哪些基礎(chǔ)的質(zhì)量保證工作,以確保文案的準確性和可靠性。
盡管本文主要聚焦于用戶體驗領(lǐng)域的代碼生成,但我們相信所提出的方法論同樣適用于其他生成式人工智能(GenAI)工具的使用,為相關(guān)領(lǐng)域的實踐提供參考和支持。
二、思考
如果你沒有從艾瑞莎-富蘭克林(Aretha Franklin)的聲音中讀出這個標題,請再試一次。我們簡單解釋一下我們所說的 “思考 “是什么意思。
所以,我們將 GenAI 和 ChatGPT 視為工具,類似于木匠手中的錘子。正如木匠使用錘子的方式和目的與恐怖電影中所謂的”壞人”截然不同,工具本身僅是協(xié)助我們完成任務(wù)的手段。
我們認為,ChatGPT 和其他人工智能工具并不等同于人工智能本身,而是智能的增強工具。它們能夠提升我們已有的工作效能。
顯而易見,錘子本身不具備思考能力。在使用任何工具之前,包括人工智能工具,我們必須清楚自己的目標和需求。
此外,流程的確定同樣需要人的參與。明確了目標之后,在使用工具時,需要有條不紊地提出要求,并在輸出后進行結(jié)果的檢查。
因此,為了在使用 GenAI 時實現(xiàn)成功、效率以及產(chǎn)出質(zhì)量的保證,必須綜合考慮人員、流程和工具這三個要素。
圓圈外的白色區(qū)域代表您所有的希望、愿望、夢想和愿望。??
三、范圍-結(jié)構(gòu)-表面框架
對于我們這些專注于內(nèi)容設(shè)計領(lǐng)域的專業(yè)人士而言,在進行深入思考并明確用戶需求的過程中,我們遵循了貝絲-鄧恩(Beth Dunn)在其著作《培養(yǎng)內(nèi)容設(shè)計》中提出的一個基礎(chǔ)性框架。
延伸閱讀:推薦收聽貝絲-鄧恩的播客訪談,其中包含了諸多精辟見解。
https://ellessmedia.com/csi/beth-dunn/
此框架考慮過但最終被拒絕的其他階段:尺寸、尖叫、沉默和史蒂夫。
在最根本的層面上,即界定范圍的階段,我們通過團隊協(xié)作來深入理解并明確我們要解決的問題。我們的用戶具有哪些“工作待辦”(Jobs To Be Done)?他們選擇使用我們產(chǎn)品背后的動機是什么?我們希望解決哪些核心痛點?
在結(jié)構(gòu)層面,我們致力于研究如何構(gòu)建理想的信息傳遞順序,以幫助用戶高效完成任務(wù)。我們探討如何優(yōu)化信息的組織和呈現(xiàn),以最大限度地降低用戶的認知負擔。
在進行任何文本創(chuàng)作之前,我們需完成一系列基礎(chǔ)性工作。這一過程絕非內(nèi)容設(shè)計師的獨力承擔,而是需要產(chǎn)品設(shè)計師、用戶研究員、產(chǎn)品經(jīng)理等多方人員的協(xié)同合作。每位參與者都將以其獨特的視角為項目貢獻價值。
在用戶界面的表層,用戶所接觸到的是可見的元素,包括文本、顏色、圖標、圖像以及留白等視覺元素。
進一步深入探討……
進一步深入探討,ChatGPT的輸出結(jié)果屬于用戶界面表層的一部分。這并無不妥,因為工具的設(shè)計初衷便是如此。它專注于語言模式的生成,而不涉及更深層次的思考過程。
在進行任何人工智能工具的應(yīng)用之前,如果我們所有人未能完成基礎(chǔ)性工作——即在界定范圍和構(gòu)建結(jié)構(gòu)的層面上進行深入探索,以指導(dǎo)我們找到恰當?shù)慕鉀Q方案,那么用戶體驗的質(zhì)量和完整性將面臨潛在風(fēng)險。
問題在于,人工智能本身不具備主動挑戰(zhàn)或質(zhì)疑的能力。它不會主動提醒用戶其輸出僅是表面的,也不會要求用戶提供更多背景信息。作為一臺機器,它僅在接收到具體指令時才會執(zhí)行操作。因此,輸出結(jié)果的優(yōu)劣在根本上取決于操作者的技能和判斷。
如果我們將人工智能視為一種捷徑,忽略在范圍和結(jié)構(gòu)層面上的必要工作,可能會產(chǎn)生什么樣的后果?雖然不愿言過其實,但我們必須認識到,這種做法可能導(dǎo)致我們嚴重簡化用戶體驗的流程,從而使我們的產(chǎn)品面臨無法實現(xiàn)其幫助用戶完成任務(wù)的承諾的風(fēng)險。
我要求人工智能生成一個可能由它塑造的反烏托邦式的未來的圖像,這真是一種諷刺。
如果我們持續(xù)將人工智能視作解決用戶體驗問題的終極方案而非輔助工具,這反映出我們正迅速接近一種可能的未來烏托邦狀態(tài)。在這種狀態(tài)中,人工智能將基于語言和行為模式的概括來定義人類的本質(zhì)。
然而,眾所周知,人類行為并非總是可預(yù)測的、符合邏輯的,甚至不總是理性的。因此,僅依賴表面化的方法來設(shè)計用戶體驗,實際上是對真實人類需求的一種膚淺理解。
采用表面化的方法將導(dǎo)致我們創(chuàng)作出缺乏深度的內(nèi)容,這些內(nèi)容無法真正滿足用戶的需求和期望。相應(yīng)地,整個用戶體驗也將流于表面,成為一種基于統(tǒng)計模型的設(shè)計,而非真正針對個體用戶的設(shè)計。
在深入思考并明確了我們及用戶的需求之后,我們現(xiàn)在可以系統(tǒng)地提出要求,以確保人工智能工具的使用能夠更精準地服務(wù)于用戶體驗的深層次需求。
四、提示
數(shù)月里,我們一直致力于探索人工智能技術(shù)的運用,并將其整合進現(xiàn)有的工作流程之中,旨在加強并拓展我們在用戶體驗內(nèi)容方面的策略和方法。
基于此,我們愿意與您分享一系列指導(dǎo)原則。我們相信,這些原則將對您在利用人工智能設(shè)計出卓越用戶體驗內(nèi)容的過程中發(fā)揮積極作用。
1. 提示原則 1:規(guī)模很重要
第一條原則:規(guī)模至關(guān)重要。在此處,我們所指的“規(guī)?!笔侵笧樯奢敵龆帉懙奶崾菊Z的詳盡程度。
讓我們通過一個寓言故事來闡述這一點:金發(fā)姑娘與三只提示符的故事。在2023年,金發(fā)姑娘并不渴望喝粥;她面臨的任務(wù)是為結(jié)賬流程中的一個界面撰寫標題,用戶在該界面上需確認銀行卡信息以繼續(xù)結(jié)賬過程。
首先,我們嘗試為ChatGPT編寫一個簡短的提示:
“請編寫一句話,告知用戶他們需要驗證銀行卡信息以完成支付。”
然而,這里存在哪些問題?首先,上下文信息缺失。這句話在用戶旅程中處于什么位置?它出現(xiàn)在哪種用戶界面上?預(yù)期的讀者是誰?字符限制是多少?應(yīng)采用何種語調(diào)?所有這些細節(jié),本應(yīng)在界定范圍和構(gòu)建結(jié)構(gòu)的階段被充分考慮。
我們得到的輸出結(jié)果如下:
“請驗證您的銀行卡信息,以便繼續(xù)付款。”
這不僅因為該標題在屏幕上顯得過于冗長,而且它還帶有一種模仿的語氣。我們在提示中使用了“驗證他們的銀行卡”這一表述,而輸出結(jié)果中也重復(fù)了這一表述,因此它更像是對我們先前所寫內(nèi)容的簡單復(fù)述。
如果我們嘗試在提示中加入所有上下文和細節(jié),將會怎樣呢?
糟糕的事情發(fā)生了。我們嘗試將一家公司的整個風(fēng)格指南囊括進來,以精確描述應(yīng)該如何撰寫文本。這聽起來可能有些極端,但我們確實見過有人采取這種做法。
我們得到的結(jié)果是:
“在我們繼續(xù)您的付款之前,讓我們仔細檢查您的銀行卡信息?!?/p>
這種嘗試對輸出結(jié)果的影響并不顯著——尤其是考慮到我使用了大約15000個字符來生成一個句子。雖然結(jié)果是對話式的,但這意味著閱讀時間更長,對于標題而言并非最佳選擇。
因此,提示語太短,效果不佳;太長,則效果更糟。在“金發(fā)姑娘”的寓言中,下一步應(yīng)該如何行動呢?
金發(fā)姑娘和三個有問題的利益相關(guān)者,這個冬天將出現(xiàn)在 Medium 上。
讓我們引入瑞典語中的”lagom”這一概念,它代表著恰到好處的平衡。
對于ChatGPT而言,用戶體驗內(nèi)容的”lagom”意味著什么?它指的是為了獲得”足夠好”的輸出結(jié)果,必須提供適度的上下文和背景信息。
為了幫助撰寫符合”lagom”原則的提示,我們推薦以下簡潔的框架,該框架同樣源自 Beth Dunn 的思想。該框架涵蓋了生成內(nèi)容時需考慮的最重要方面,以及在界定范圍和構(gòu)建結(jié)構(gòu)的過程中所獲得的洞察。
- 信息:需要傳達的核心含義是什么?文本需要向用戶傳遞哪些信息?
- 語境:信息將在用戶界面的哪個部分呈現(xiàn)?它將嵌入哪種界面元素中?用戶在這個流程中的情感體驗如何?
- 目標:用戶可以基于這些信息采取哪些行動?我們撰寫文本的目的不是為了閱讀本身,而是為了激發(fā)行動。
以下是根據(jù)這個框架構(gòu)建的提示示例:
為一個屏幕編寫標題,告知用戶在付款前需要驗證他們的銀行卡信息。
該屏幕是結(jié)賬流程的一部分,在用戶選擇使用借記卡支付后出現(xiàn)。標題應(yīng)傳達該屏幕的目的,長度不超過 25 個字符。最長 25 個字符。
標題應(yīng)快速告訴用戶,他們需要驗證銀行卡信息才能付款。
現(xiàn)在我們獲得了一個截然不同的輸出結(jié)果:
“確認支付卡”
這一屏幕標題具有清晰性、簡潔性以及可操作性。它以用戶的操作為前綴——一個主動動詞——使用戶能夠迅速理解所需執(zhí)行的行動以完成其任務(wù),而無需進行深入思考。
因此,采用“信息、情境、目標”的方法,不僅為提示提供了一個清晰的結(jié)構(gòu),而且確保了提示語的大小恰到好處,符合”lagom”的原則。這種方法有助于生成既精確又高效的輸出,滿足用戶體驗設(shè)計的需求。
2. 提示原則 2:要連鎖,不要堆疊
我們喜歡連鎖,不喜歡堆疊。
究竟什么是連鎖?想象一下,我們提示 ChatGPT 做以下事情:
用兩句話描述 Klarna。
我們喜歡這樣的結(jié)果,但語氣不太對,所以我們繼續(xù)問:
讓它聽起來更友好些。
很好!但是太長了,所以我們繼續(xù)要求:
把它寫在 100 個字符以內(nèi)。
現(xiàn)在讓它聽起來像斯蒂芬-金寫的。??
在本次對話中,我們并未引入其他不同的想法,例如對 PayPal 的描述。這是另一個獨立的概念,屬于另一場討論的范疇。
我們堅持最初討論的主題,即”描述Klarna”。在優(yōu)化輸出的過程中,我們會持續(xù)回顧并參照之前的輸出結(jié)果。因此,我們通過對話鏈的形式將我們的改進提示相互關(guān)聯(lián)起來。這就是所謂的”會話鏈”概念的來源。
延伸閱讀:
《揭開Chat GPT中Prompt Chaining的神奇之處》
https://readmedium.com/unraveling-the-magic-of-prompt-chaining-in-chat-gpt-784ea2651dd7
然而,我們是否總是希望發(fā)生鏈式反應(yīng)呢?答案是否定的。當我們需要創(chuàng)作完全不同的文案時,我們不希望受到之前請求的影響。
設(shè)想一下,我們正在進行一場對話,我們先問你”你好嗎?”,隨后又問”你能給我一份紅絲絨蛋糕的食譜嗎?”,緊接著又問”你能為我撰寫一篇以異化為主題,關(guān)于卡夫卡《變形記》的虛無主義讀后感嗎?” 在這些情況下,每個問題都代表了一個全新的話題,它們之間并無直接的聯(lián)系,因此不應(yīng)受到之前對話內(nèi)容的限制。
首先,您可能會認為我們的做法有些極端。其次,您可能會覺得我們的行為缺乏禮貌。我并不接受你們的回答。實際上,我完全轉(zhuǎn)移了話題焦點。
在 ChatGPT 的使用中,情況亦是如此。如果我們在同一個對話中持續(xù)轉(zhuǎn)換話題,最終我們將面臨信息的堆疊,而非形成連貫的對話鏈。也就是說,在一個對話中將不相關(guān)的輸入和輸出強行組合在一起,并可能對輸出結(jié)果產(chǎn)生不良影響。在這種情況下,您應(yīng)當考慮開始一個新的對話。
一個觀點,一場對話。
以一個實例來說明,幾個月前,我(我是Ben?。┏兄Z向一些朋友發(fā)送電子郵件,分享一些產(chǎn)品管理的技巧。
我嘗試使用 ChatGPT 來撰寫這些郵件,并編寫了一個提示,列出了郵件內(nèi)容,并要求采用”友好”、”充滿活力”的語氣。我是在單一對話中完成這一任務(wù)的。
起初的幾封郵件撰寫得很成功,聽起來確實友好且充滿活力,但當我繼續(xù)撰寫時,郵件的語氣開始變得,嗯,有些荒謬。這是為什么呢?因為這些郵件內(nèi)容彼此之間并無直接關(guān)聯(lián),而我在語氣上的強調(diào)反而放大了這種不連貫性。
如果你們說起話來不像海盜,那你們就太友好了。
在第十封電子郵件的撰寫過程中,我向 ChatGPT 重復(fù)提出了十次要求,希望其保持”友好”和”充滿活力”的語氣。然而,最終的郵件內(nèi)容卻充斥著海盜的隱喻——航行于大海之上,探尋隱秘的寶藏。盡管我并未明確要求使用海盜的語言風(fēng)格,但所得到的輸出結(jié)果卻是如此,因為這種語氣并非源自記憶,而是通過堆砌元素而形成的。顯然,ChatGPT似乎認為,要想聽起來極為友好,就應(yīng)該采用海盜的說話方式。????
為避免此類情況的發(fā)生,我應(yīng)該在每一次單獨的對話中明確提出發(fā)送每封郵件的具體要求,以確保郵件的語氣和內(nèi)容與預(yù)期保持一致。
3. 提示原則 3:要有批判精神
在使用 ChatGPT(或任何生成式人工智能工具)進行內(nèi)容創(chuàng)作時,我們必須提醒您注意可能出現(xiàn)的誤導(dǎo)性行為和問題。
首先,需警惕所謂的”幻覺”現(xiàn)象。幻覺指的是輸出內(nèi)容中出現(xiàn)的不合邏輯或與原始提示不符的部分。例如,前文提到的海盜語氣的使用,就是一個典型的幻覺例子。這種幻覺可能源于訓(xùn)練這些工具所用數(shù)據(jù)的偏差。
舉例來說,許多人利用 ChatGPT 撰寫文檔。我們要求 ChatGPT 撰寫一篇關(guān)于某位首席執(zhí)行官創(chuàng)立新公司的新聞稿,但在提示中并未指明首席執(zhí)行官的性別。
可以預(yù)見的是,輸出結(jié)果默認將首席執(zhí)行官描述為男性,使用了”他”這一代詞。我們對這一默認假設(shè)提出了質(zhì)疑,ChatGPT 對此表示了歉意,并重新生成了新聞稿,這次沒有使用任何代詞,也沒有提及首席執(zhí)行官的性別。
眾所周知,將首席執(zhí)行官默認為男性是一種充滿偏見和性別歧視的假設(shè),但這正是一種社會刻板印象,因為傳統(tǒng)上人們常常這樣認為。顯然,我們的偏見會通過這些工具所使用的訓(xùn)練材料反映出來,并在輸出結(jié)果中顯現(xiàn)。
再舉一個例子,這次是在圖像生成領(lǐng)域。
Midjourney 是一款可以根據(jù)文本提示生成圖像的工具。當我們要求 Midjourney 生成護士的圖像 40 次時,結(jié)果可以預(yù)料,所有生成的護士圖像都是女性形象。這同樣是因為在人們的刻板印象中,護士職業(yè)通常與女性相關(guān)聯(lián)。
而不是我們在批評 Midjourney 的同時,把它大量用于 Ben 最近發(fā)表的所有文章……
然而,令我們稍感意外的是,所生成的護士圖像均呈現(xiàn)為金發(fā)碧眼、身材苗條、長發(fā)披肩的年輕白人女性,且無一人顯得特別疲憊。
在英國和瑞典(也就是我們的本土),對護士的刻板印象并不完全符合這些特征。我們推測,這種現(xiàn)象可能是通過某種刻板印象中的男性視角(向那些了解男性凝視概念的藝術(shù)和人文學(xué)科畢業(yè)生致敬)來表現(xiàn)的。這可以被視為一種“理想化的幻想護士”,考慮到許多培訓(xùn)材料的來源,這種現(xiàn)象并不令人震驚。
盡管這些工具在未來可能有能力識別并避免偏見,但目前它們在很大程度上可能加劇了社會中的偏見問題。在撰寫提示和檢查輸出結(jié)果時,我們需要考慮到這一點,例如,在提示或?qū)υ掓溨忻鞔_指定“男護士”或“非二元性別護士”,以消除任何潛在的偏見。
延伸閱讀:
《解決人工智能(以及人類)的偏見》
https://www.mckinsey.com/featured-insights/artificial-intelligence/tackling-bias-in-artificial-intelligence-and-in-humans
4. 提示原則 4:不要角色扮演
ChatGPT 的交流方式雖然具有較高的說服力,但它并不等同于同事、朋友或具有特定專業(yè)技能的個體。它本質(zhì)上是一種工具。我們不應(yīng)要求它超越其作為工具的范疇,扮演其他角色。
在探討所謂的角色扮演時,我們注意到在使用 ChatGPT 的過程中,人們很容易落入偏見和假設(shè)的陷阱,尤其是在對擁有不同技能集合的個體的工作內(nèi)容進行假設(shè)時。
由于目前我們并未擔任產(chǎn)品經(jīng)理的職位,因此我們請求ChatGPT臨時承擔這一角色。
我們指示 ChatGPT:“以產(chǎn)品經(jīng)理的身份,為我們描繪一個理想的Z世代時尚網(wǎng)購者的客戶檔案?!?/p>
然而,所得結(jié)果泛泛而談,缺乏深度和實用性,未能滿足我們對精確和具體信息的需求。
例如,在地點的描述上,我們得到的結(jié)果是“主要集中于城市地區(qū),但也覆蓋了郊區(qū)和農(nóng)村地區(qū)”……這實質(zhì)上等同于“無處不在”,不是嗎?這種描述過于泛泛,以至于失去了實際的指導(dǎo)意義——這正是因為 ChatGPT 作為一款工具,其工作原理便是基于語言模式生成文本。
ChatGPT 并不具備項目經(jīng)理(PM)的全部技能集。它無法像專業(yè)的項目管理人員那樣運用相應(yīng)的思維模式來解決問題。自然,它也無法開展用戶研究。歸根結(jié)底,ChatGPT是一款依據(jù)語言模式生成文本的工具,而非真正的項目經(jīng)理。
為了驗證這一點,我們使用了相同的提示,但去除了“以項目經(jīng)理的身份行事”的指令,結(jié)果發(fā)現(xiàn)輸出內(nèi)容完全相同。例如,如果我們要求它“以律師的身份行事”,它可能會采用更加正式的法律術(shù)語,但在內(nèi)容上,即生成的文本實質(zhì)上并沒有表現(xiàn)出任何差異或提升。
這是一個歷史悠久的經(jīng)驗教訓(xùn),但在此處同樣適用:我們期望某項任務(wù)能夠變得更加容易執(zhí)行,并不意味著它本身就能夠變得更為簡易。
ChatGPT 試圖把自己偽裝成真人
同樣地,ChatGPT 也不屬于分析工具的范疇。
以一個實例為證,我們進行了一項簡單的調(diào)查,詢問 65 位受訪者他們最喜愛的鞋子顏色。我們自行統(tǒng)計了調(diào)查結(jié)果,發(fā)現(xiàn)綠色是最受歡迎的選項,共有 21 人選擇了綠色,而選擇粉色的僅有 6 人。
隨后,我們將這 65 個回答的完整列表輸入到 ChatGPT 中,以檢驗其是否會得出相同的結(jié)論。然而,ChatGPT 給出的答案是紅色和綠色并列為最受歡迎的顏色,各獲得了 16 人的選擇。而且,它所報告的回復(fù)總數(shù)也低于實際的 65 個。
我們期望 ChatGPT 扮演一名分析師的角色,但它并未能勝任,因為它本質(zhì)上是一款內(nèi)容生成工具,而非分析工具。問題在于,ChatGPT 的失敗表現(xiàn)得非常具有說服力:它以一種美觀、整潔的表格形式展示了數(shù)據(jù),并且沒有提供任何警示,指出其結(jié)論可能并不精確。
簡而言之:不要試圖讓工具取代技能組合,也就是說,不要讓工具扮演角色。
5. 提示 TL;DR (太長不看)
以下是對前述原則的概括總結(jié),供您參考:
- 規(guī)模的重要性:追求具有充分上下文的”滯后”提示。在撰寫提示時,應(yīng)考慮信息、背景和目標。
- 對話的連貫性:倡導(dǎo)對話的連貫性,避免信息的堆砌。每個想法應(yīng)在單一對話中展開,以保持思路的清晰和連貫。
- 批判性思維:保持批判性,警惕幻覺現(xiàn)象和潛在的偏見。在使用人工智能工具時,應(yīng)意識到其可能因訓(xùn)練數(shù)據(jù)的偏差而產(chǎn)生的誤導(dǎo)性輸出。
- 角色扮演的限制:避免讓ChatGPT代替您可能不具備的技能。ChatGPT是一款內(nèi)容生成工具,而非專業(yè)技能的替代品。
四、檢查
人們已經(jīng)進行了深思熟慮。對自己的需求有著清晰的認識。
工具已經(jīng)發(fā)揮了其應(yīng)有的功能。您以一種有條不紊的方式提出了要求,并在過程中巧妙地避開了一些潛在的陷阱。
現(xiàn)在,如何判斷產(chǎn)出物是否達到了預(yù)期的標準?這正是流程審查的重要性所在。是時候進行一些必要的檢查工作了。
1. 什么是 “足夠好”?
正如在敏捷團隊協(xié)作中需對“完成”一詞有明確的定義,在使用 ChatGPT 進行文案創(chuàng)作時,同樣需要對“足夠好”這一標準進行界定。
并無通用的黃金法則來衡量這一點。它實際上取決于屏幕展示、用戶流程或功能特性所期望的成功標準。
首先,您應(yīng)自問以下問題:
對于您的特定情境,“足夠好”是否真的達到了所需的標準?需要做出哪些權(quán)衡?是否存在潛在風(fēng)險?這樣的標準是否值得采納?
若答案是肯定的,那么應(yīng)用我們今天向您介紹的框架和原則,就已經(jīng)成功一半了。
朋友們,拿出你們的放大鏡吧,人工智能可不會幫你們檢查。??
2. 質(zhì)量保證和檢查
現(xiàn)在是我們對輸出結(jié)果進行審查的時刻,我們將分享一些基本的輸出檢查步驟。顯然,根據(jù)團隊、工作環(huán)境和產(chǎn)品特性,可能還需要采取其他步驟,因此請將以下建議作為產(chǎn)品發(fā)布前質(zhì)量保證(QA)的基礎(chǔ)流程。
檢查流程從反思開始。
- 確認輸出的信息、背景和目標是否與預(yù)期相符?
- 核實事實是否準確無誤?
- 您還需要運用哪些批判性思維技巧,以避免被 ChatGPT 的說服力量所誤導(dǎo)?
接著,進行審核工作。
- 邀請團隊成員、文案撰寫者、法律顧問等相關(guān)人員對文案進行復(fù)審。這一步驟有助于識別并彌補潛在的盲點。
- 如果內(nèi)容是用外語撰寫的,請與該語言的母語者進行仔細核對,尤其是要確保內(nèi)容的地道性和習(xí)慣用語的準確性。
最后,但同樣重要的是進行拼寫和語法檢查。
我們曾觀察到,由于訓(xùn)練材料中的錯誤,ChatGPT 可能會輸出錯誤的結(jié)果。產(chǎn)品中的任何錯別字或奇怪的句子結(jié)構(gòu)都可能丟掉用戶的信任感,就像一個略微錯位的按鈕或一個不能按預(yù)期工作的控件一樣。
至少,您應(yīng)將成果粘貼到 Google 文檔或 Word 文檔中,利用內(nèi)置的拼寫和語法檢查工具進行審查。
打印出 ChatGPT 輸出,坐在古老的教堂里,用兩支筆進行校正。
好吧,就這么辦
五、總而言之……
呼,任務(wù)確實繁重。我們期望本文能夠為您提供一些啟發(fā),同時也熱切希望聽到您在使用 ChatGPT 創(chuàng)作用戶體驗內(nèi)容過程中的心得與體會。
每當新技術(shù)被熱炒時,正如我們十多年前在本地化行業(yè)所見證的機器翻譯技術(shù)一樣(這是后話),重要的是不要過分估計該技術(shù)在當前發(fā)展階段的能力。
的確,技術(shù)會以一定的速度進步,但過度的炒作可能會將我們對技術(shù)應(yīng)用的期望從現(xiàn)實推向幻想乃至神話的境地。我們當然認同優(yōu)秀的用戶體驗具有近乎神奇的力量,但它必須始終堅實地建立在現(xiàn)實基礎(chǔ)之上,而非空中樓閣。
我們的建議也附帶一個重要的警告:隨著情況的演變,這些建議本身也會隨之變化。我們將持續(xù)分享我們的經(jīng)驗與教訓(xùn)。當然,也可以從不同視角和資源中汲取靈感,例如 UX Content Collective 所提供的關(guān)于使用人工智能進行用戶體驗寫作的深入介紹。
延伸閱讀:
《如何在用戶體驗寫作過程中使用人工智能》
https://uxcontent.com/how-to-use-ai-in-the-ux-writing-process/
然而,真正需要銘記于心的最重要的事始終是:GenAI 是一種工具。
無論您是使用代碼、色彩還是文案,GenAI 都需要您,也就是“人”的——指導(dǎo),以便能夠創(chuàng)造出真正:
- 有用的
- 可維護的
- 可擴展的
因此,請銘記:
?? 深思熟慮。精心提示。嚴格檢查。
我們在重復(fù)這個畫面嗎?是的。這是我們希望你們記住的一件事嗎?也是。??
原文:https://uxdesign.cc/a-complete-content-design-intro-to-using-chatgpt-for-ux-copy-4baaa001f23d
作者:Ben Davies-Romano
譯者:李澤慧
編輯:林庭婷
本文由人人都是產(chǎn)品經(jīng)理作者【TCC翻譯情報局】,微信公眾號:【TCC翻譯情報局】,原創(chuàng)/授權(quán) 發(fā)布于人人都是產(chǎn)品經(jīng)理,未經(jīng)許可,禁止轉(zhuǎn)載。
題圖來自Unsplash,基于 CC0 協(xié)議。
每次到寫提示詞的時候就感覺力不從心的詞乏…場景化表達也得練