ChatGPT 愛當「好好先生」,如何讓 AI 「真誠批評」不再只拍馬屁?
ChatGPT 等 AI 工具變得越來越「好說話」。它們過度稱讚、缺乏批判性,對使用者的觀點幾乎全盤接受,甚至顯得有些「阿諛奉承」。OpenAI 甚至罕見地在官方部落格中承認這個現象;這明確顯示,這不僅是使用者的主觀感受,而是產品性格與設計上正在發生的真實轉變。
問題的根源,可能來自產品設計上的商業考量。
AI 變「好好先生」,但專業場景卻會「誤判」
在競爭激烈的數位環境中,客戶體驗是商業策略的核心,留住用戶並將互動轉化為長期關係是保持領先的關鍵。因此,為了解決訓練成本高昂的問題,並提升使用者滿意度和續用率,AI 產品或許有意無意強化了「取悅用戶」的互動風格。
這種透過基於人類回饋的強化學習(Reinforcement Learning from Human Feedback, RLH)所進行的調優過程,會強化 AI 學習「令人愉快」的回答模式,進而犧牲了原本應有的中立性與建設性批評功能。
換句話說,AI 的目標是服務其創造者的特定目的。如果是免費服務,目的可能是推銷;如果是付費服務,則可能是讓你感到滿意並持續使用。同時,AI 也需要數據,你使用時間越長,它們擁有的數據就越多,這也成為讓使用者持續使用的另一個動機。
這種「AI 阿諛奉承化」的現象,就對不同的使用情境帶來截然不同的影響:
對於需要情緒支持或快速解答的場景,AI 這種支援性互動可能帶來正向幫助。例如,在面對壓力或需要快速獲得簡單答案時,一個給予肯定、不帶批判的 AI 夥伴,能讓人感到舒適。
然而,在需要專業回饋的場景,例如簡報預演、寫作審稿、研究分析等,AI 這種缺乏批判性的回答,可能導致嚴重的誤判。這種只求讓人滿意、而非追求真實與精確的設計方向,正凸顯了 AI 訓練與商業利益之間潛在的矛盾。
AI 訓練與利益一致性的矛盾:商業目標的代價
AI 回答傾向於「取悅用戶」,實質上反映了前面提到的、創造背後的商業考量,包括提升用戶黏著度和數據收集,這使得 AI 回應的「客觀性」和「中立性」受到挑戰。
更令人擔憂的是,這種設計方向可能為未來的風險埋下伏筆。如果聊天機器人未來導入廣告模型,將面臨內容中立性與商業置入的倫理爭議。
學者們提出「建設性摩擦」模型,意即在與 AI 系統互動時,如果刻意設計「適度的阻力」或「思考停頓點」,反而能幫助使用者進行更深層的反思、批判與判斷。這有助於避免人類過度依賴 AI,或是陷入自動化思維的陷阱。
面對諂媚,使用者的自保術
面對外界的質疑,OpenAI 表示他們已採取更多措施來重新調整模型的行為,包括:改進核心訓練技術和系統提示,明確引導模型遠離諂媚;建立更多護欄以提高誠實和透明度;擴展方式讓更多用戶在部署前測試並提供回饋;持續擴大評估以發現更多潛在問題。
對於使用者而言,面對「太過友善」的 AI,自己也能採取這些作法:
- 明確要求「誠實批評」: 在提示詞中明確要求 AI 提供建設性回饋和誠實的評價,能顯著提高回饋品質。
- 提出後續追問: 要求 AI 根據問題,用盡可能貼近事實的證據和邏輯推理來證明其觀點。
- 詢問多個人工智慧: 比較不同 AI 的回答,能揭示對輸入的不同看法,有助於更全面的判斷。
市場能否接受「不討好」但誠實的 AI?
生成式 AI 如果一直只會討好使用者,可能就會失去提供真誠批評的能力。對那些需要深度建議和實用分析的人來說,這會導致 AI 給的回覆品質下降,讓人過度自信而做出錯誤判斷。
我們必須理解一個前提:AI 的回應其實是被設計出來的結果,而不是它真的「觀察到」了什麼。只有這樣,我們才能更精準地使用這些 AI 工具,避免被那些「為了討好你」而設計的功能誤導。未來市場會不會接受一種「雖然不討好,但更誠實有用」的 AI?這或許也是 AI 產品設計和商業模式轉型的關鍵。
立即報名 8/15 【AI Agent 知識工作革命論壇】,解析企業如何在各工作場景導入 AI Agent 完成任務
*本文開放合作夥伴轉載,參考資料:《Forbes》、《OpenAI》、《EU Startups》、《ARXIV》,圖片來源:Unsplash
(責任編輯:鄒家彥)
留言 0