請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

理財

AI 生成內容遭批「低品質、不勞而獲」!品牌如何揭露 AI 使用程度,才不會引起反感?

經理人月刊

更新於 08月08日10:11 • 發布於 08月08日09:00 • 李岱君

近期 Spotify 平台上出現大量 AI 生成的音樂,冒充真實歌手身分發布,引發討論。例如已故鄉村歌手布萊茲·佛利(Blaze Foley)的頁面遭到入侵並上傳 AI 生成的歌曲,Spotify 因管控不力遭到強烈批評。

然而,Spotify 事件只是冰山一角。大眾對 AI 生成內容的態度複雜且矛盾,一方面享受 AI 帶來的便利,另一方面對 AI 的真實性和道德性存有疑慮。從《路透社》(Reuters)針對新聞業的調查到學術界對行銷傳播的研究,都指出 大眾對 AI 內容抱持著「時而接受、時而抗拒」的心態。

面對這樣的消費者情緒,品牌方和內容創作者該如何在善用 AI 效率的同時,維護消費者信任?

AI 生成的內容為何惹怒閱聽人?

大眾的反感,最根本的痛點是「努力的價值被顛覆」,因為作品的價值來自創作者投入的時間、精力和技能。當 AI 能在幾秒內產出人類需要數年磨練的作品時,這個價值體系便受到衝擊,也難怪音樂界將其貶低為「不勞而獲的垃圾內容」。尤其 Spotify 這種靠播放次數賺取收入的平台,放任 AI 生成作品大量出現,更容易讓人產生負面觀感。

此外,版權爭議也是一大問題。創作者普遍認為,AI 模型在訓練過程中使用了他們的作品卻未經同意,造成大規模的「數位竊取」。「公開不等於使用許可」已成為創作者社群的主張之一,例如《紐約時報》(The NewYork Times)控告 OpenAI 未經允許使用其內容訓練模型,就是一個例子。

《商業研究雜誌》(Journal of Business Research)的論文指出,當 AI 生成的內容涉及情感表達或創意內容時,會引發「道德厭惡感」,導致消費者忠誠度和正面口碑顯著下降;如果引用是事實性內容,如數據報告或產品規格,消費者的接受度相對較高。

怎麼揭露 AI 使用程度,消費者才不會討厭我?

然而,面對大眾對 AI 生成內容的複雜情緒,品牌無論是過度揭露還是隱瞞 AI 使用程度,恐怕都會破壞信任。「透明度」(讓外界清楚知道品牌在哪些內容中使用了 AI、使用的方式與程度) 並非愈高愈好,而是需要按使用形式精確揭露:

無需揭露的「低風險使用」: 包括文法檢查、翻譯輔助、關鍵字優化等工具。《路透社》調查發現,消費者認為這些機械性、輔助性的任務無需特別說明,就像使用拼字檢查一樣自然。

建議揭露的「中風險使用」: 涉及內容強化和重新包裝,如調整寫作風格、圖片美化、格式轉換等。此時適合使用「AI 輔助創作,專業編輯審核」等描述,強調人類仍是主導者。重點在於用詞,「AI 輔助」比「AI 生成」更容易被接受,因為前者暗示人類仍有控制權。

必須揭露的「高風險使用」: 包括完全由 AI 生成的文章、逼真的人物圖像、語音內容等。這些使用將直接影響品牌真實性,而且,標註使用的方式仍很重要,像是「結合 AI 效率與人類判斷」比「純 AI 生成」更能維護品牌形象。

《商業研究雜誌》研究還提出一個「信任悖論」,也就是當品牌主動公開 AI 使用時,消費者會質疑內容品質,但卻會提升對品牌誠實度的評價。 長期而言,誠實揭露有助於建立品牌信譽,即使短期內可能影響特定內容的接受度。

AI 內容透明度差異化指南:文字 OK、照片慎用、聲音高風險

此外,《路透社》也指出,品牌在不同載體使用 AI 時,需要採取差異化策略揭露,因為消費者對各種媒體的信任基礎和期待截然不同。AI 生成的素材中,大眾對文字內容的容忍度最高,圖表和插圖次之,對照片和影片則最嚴格。因為閱聽人認為「照片和影片是真相的載體,相機不應該說謊」,因此對 AI 生成的視覺內容更敏感。

文字:事實性內容可安心用 AI,重點在人工審核

文字是 AI 應用最成熟的領域,也是消費者相對最能接受的形式。

初階應用集中在事實性內容,如產品規格、開店時間、客觀數據等。這些內容重視準確性勝過創意性,且消費者對事實性 AI 內容的道德厭惡感,明顯低於情感性內容。

進階應用涉及策略性內容,如行銷文案、社群貼文等。建議 AI 負責初稿和多版本生成,人類負責最終判斷和品牌調性。關鍵是讓 AI 處理「發散思維」(產生多種可能),人類處理「收斂思維」(精確表達特定概念)。

高階應用限於非情感性的專業內容,如技術分析、政策解讀等。即使在這種情況下,也建議標明「AI 輔助,專家審核」,強調人類專業判斷的價值。

圖片:慎用 AI,視內容需要多少真實性

由於消費者對不同類型圖像有不同的真實性要求,可安全使用的包括圖表、圖示等。這些本來就是「表現性」而非「紀實性」的,產製內容還停留在事實性的產出,例如利用既有資料與 AI 產出圖表。

需謹慎使用的是產品情境圖、風景照等。這類圖片雖可以用 AI 生成,但建議明確標示,並解釋為何選擇 AI(如成本考量、創意發想等)。關鍵是要誠實說明,不要讓消費者誤以為是真實拍攝。

應避免用 AI 生成的是人物照片,尤其是員工、客戶、重要活動的照片,因為這類圖像承載著對「真實」的期待,如果用 AI 生成,會被視為欺騙。

聲音:更具個人化特質,讓人容易有被詐騙感

相對安全的應用包括製作多語言版本的音檔、客服自動回覆、產品介紹旁白等功能性內容。這些情況下,消費者關注的是資訊傳達效率,對聲音的真實性要求較低。

需要謹慎的應用是廣告旁白、podcast 內容等。這些內容帶有品牌色彩,如果使用 AI 聲音,必須明確標示並解釋原因。

高風險應用包括 CEO 談話、品牌代言、客戶心得等。這些內容的價值正在於「真實的人聲」,AI 模擬會破壞可信度。

簡而言之,愈私人、情感化的內容,愈需要真實人聲;愈功能性、標準化的內容,則可以接受 AI 聲音。

資料來源:Journal of Business ResearchReutersEYzdnetdigwatch

核稿編輯:王宥筑

延伸閱讀

AI進展快,要趕緊跟上!為何AI專家程世嘉卻認為:先躺平再說?
微軟調查:台灣近8成員工已用 AI 工作、仍有7成企業欠缺規畫
加入《經理人》LINE好友,每天學習商管新知

查看原始文章

更多理財相關文章

01

SEMICON Taiwan 2025 登場!台積電與輝達都關注「矽光子概念股」一次看

科技新報
02

泰山前董事會糟了!處分全家股權、投資街口、擴建包裝水廠3決議 全遭法院判無效

太報
03

YouTuber、網紅注意!財政部出手課稅了 規範重點一次看

CTWANT
04

存款3百多萬!全押0050還是買房?網秒選:先下手

EBC 東森新聞
05

緯創(3231)、廣達(2382)、聯電(2303)...避九月魔咒,15檔個股宜「居高思危」:AI族群回檔才是買點

今周刊
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...