請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

深偽浪潮席捲名人經濟,AI 假冒從公關危機變商業攻擊

科技新報

更新於 05月07日17:31 • 發布於 2天前

在生成式 AI 快速擴散之際,圍繞「身分」的爭議正成為下一波攻防焦點。最新討論指出,問題已不再只是 AI 內容真假難辨,而是誰有權控制一個人的影像、聲音與肖像被如何使用,尤其當深偽內容可在短時間內被大量製作、投放到社群平台,甚至包裝成廣告或促銷活動時,法律與商業風險都同步升高。

報導指出,名人最先承受這波衝擊。近期曾出現以泰勒絲、蕾哈娜等名人影像製作的 AI 假影片,在 TikTok 等平台被用來推送假獎勵計畫,並引導使用者前往第三方網站留下個資。泰勒絲也在這類深偽廣告擴散後,申請與其肖像與聲音相關的商標保護。相關案例顯示,名人的形象不只是公關資產,更直接牽動巡演、串流、化妝品、運動鞋、電影與品牌合作等商業價值,一旦遭到廉價複製,就可能稀釋品牌、損害合作關係,甚至迫使本人、企業與平台投入額外成本,證明自己與爭議內容無關。

這場風波也讓「假冒」從個人傷害,進一步變成商業攻擊。假 CEO 可被用來催促付款、假運動員可把粉絲導向賭博式詐欺、假歌手可引導忠實粉絲前往資料蒐集網站、假醫師則可能藉白袍與熟悉臉孔推銷劣質藥品。IBM 2025 年《資料外洩成本報告》指出,受調查的外洩事件中有 16% 涉及攻擊者使用 AI 工具,最常見於釣魚或深偽冒充攻擊。資安專業人士因此提醒企業,對於可疑的聲音訊息、緊急要求、假求救或索取金錢與敏感資料的訊息,應先透過可信管道核實,再採取行動。

法律面上,現行制度正被迫補課。美國聯邦層級的《反假冒法案》(NO FAKES Act)已於 2025 年 4 月重新提出,目標是防堵未經授權的數位複製;田納西州的《確保肖像聲音和影像安全法案》(ELVIS Act)則自 2024 年 7 月 1 日生效,將詞曲創作者、表演者與音樂工作者的聲音與語音複製納入保護。義大利也已在 2025 年 10 月 10 日起施行相關刑事規定,將未經同意散布 AI 建置或 AI 改動的圖像、影片與聲音列為犯罪,若足以誤導真實性並造成不當損害,最重可處一至五年徒刑。另針對市場操縱等罪名,法律也增列 AI 相關加重因素。

專家指出,現行著作權、商標、隱私與詐欺法各自只涵蓋一部分問題,但 AI 深偽內容會同時跨越多個法律邊界。著作權保護的是作品本身,商標保護品牌識別,公開權保護商業身分,隱私法防止侵入,詐欺法則處理欺騙;然而 AI 建置內容可讓人像、聲音或身分「做出新動作、說出新話、推銷新產品」,使真實與假冒更難區分。也因此,平台責任、授權機制與可驗證來源,正成為下一階段治理的核心。

面對這股趨勢,業界開始把「驗證」與「授權」納入內容生產流程,包括浮水印、來源證明與可機讀旗標,被視為降低濫用的重要手段;但若內容經過裁切、重傳或跨平台散布,註記也可能被抹除,因此僅靠下架與審查遠遠不夠。報導認為,更可行的方向,是建立權利與授權登記制度,讓語音驗證、授權管理、保險與法務執行形成一套新的市場基礎設施。

(首圖來源:pixabay

立刻加入《科技新報》LINE 官方帳號,全方位科技產業新知一手掌握!

查看原始文章

更多理財相關文章

01

AI伺服器訂單被台灣3大廠制霸!韓媒急了

NOWNEWS今日新聞
02

黃仁勳怒批AI末日論!點名矽谷CEO製造恐慌:他們覺得自己是上帝

anue鉅亨網
03

坐牢前押身家抄底一股票!出獄後一看「暴賺40000%」 資產飆破23億

太報
04

在地戲稱「台積國小」來了 5年內大樓3字頭家長搶卡位

ETtoday新聞雲
05

台股高檔投資術1/現在買0050太晚? 財務教練曝比預測股價高低更重要的事

鏡週刊
06

AI巨頭千億支出,台廠準備再吃餅?阮慕驊點破台股「過熱」真相:矽谷燒錢、亞洲變現

風傳媒
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...