在人工智慧日益普及的今天,許多使用者正努力從大型語言模型如 ChatGPT 中獲得最精確、最有效的回答。然而,使用者在撰寫提示詞時所使用的特定詞彙,可能正在無意中損害 AI 的回應品質。與普遍認為的 AI 理解能力無邊無際不同,AI模型對文字表達的精確度其實極為敏感。
綜合外媒報導,有別於關於 AI 禮貌行為或其運算消耗的討論,一個更實際且直接影響使用者體驗的因素,在於提示詞本身的結構與措辭,某些看似無害的詞語實際上會為 AI 的理解引入不確定性。
其中最常見且最具破壞性的詞彙,包括情態助動詞「Can」(可以)和「Could」(可能)。當使用者以「你能列出…嗎?」或「你能不能提供…?」的形式發問時,這種問句結構雖然在人類對話中表示禮貌或詢問能力,但在 AI 語境下卻增加了指令的不確定性。
相較之下,直接且果斷的指令,例如簡單地說「列出 2025 年圖書市場目前趨勢」,可以促使 AI 生成更直接、更精確的答案。這種差異強調了與 AI 溝通時,明確指示而非詢問能力的關鍵性。
除了「Can」和「Could」,應避免以下幾類詞彙,以優化與 ChatGPT 的互動:
猶豫不決的詞語:避免使用「也許」、「有可能」、「在某些情況下」、「一般來說」等詞。這些模糊的表達會削弱你期望獲得的直接和確定的答案。
多餘的詞語:刪除對資訊價值沒有貢獻的字眼,例如「只是」、「真的」、「實際上」、「基本上」、「有點」。這些詞語會使提示詞變得冗長且可能分散 AI 的注意力。
模糊的限定詞:避免使用缺乏上下文的詞語,如「很多」、「許多」、「最近」、「經常」。這些不具體的詞語會導致 AI 生成不夠精確或具體的回答。
過於謙遜或道歉的開頭:不要說「對不起,但是」或「我可能錯了,但是」。這類開頭可能會讓 AI 的回答顯得不那麼篤定。
掌握與 AI 互動的語言藝術,透過採取更果斷、簡潔、準確和直接的措辭,使用者可以顯著提升從 ChatGPT 獲得的回答品質。這些簡單的語言調整,是解鎖 AI 模型全部潛力的重要一步,讓 AI 更準確理解使用者的意圖,並提供更優質的協助。
相關文章
Here’s why you shouldn’t be too polite when chatting with ChatGPT
The one word you should never say to your AI chatbot
原文摘自 Tech News 蘇治宏 想讓 AI 回答更精準?與 ChatGPT 溝通時,這些詞語千萬別用