生成式AI兩面刃 "概念抹除"技術源頭把關
一鍵生成、便利背後藏變數,AI快速帶來效率,也潛藏侵權與濫用的風險,在面對生成式AI的浪潮,臺大電機系團隊推出"概念抹除"技術 Receler,不需要重新訓練整個模型,就能精準切斷AI對暴力、色情或者是侵權等,高風險概念的聯想與表現能力,從源頭開始做好把關,在創新與安全之間找到平衡,
「幫我搜尋大愛新聞。」
指令一下,僅過了五秒鐘,AI立刻生成所需內容,方便又快速,但在這背後,其實也潛藏著侵權、濫用等隱憂。
國科會工程處處長 洪樂文:「現在大家常用的一些生成式AI的工具,像是這個ChatGPT,如果沒有做任何防範的話, 當然就容易出現一些風險的內容, 像是前一陣子這個吉卜力風格的,這些圖像生成的這個爭議, 其實就有一些侵權的這個討論在裡面。」
生成式AI如何安全使用,成為當前科技發展中必須面對的重要課題,因此臺大電機系團隊,也藉此推出了"概念抹除"技術Receler,希望能夠在不重新訓練,整個模型的情況下,精準切斷AI,對特定高風險概念的聯想,與表現能力。
臺灣大學電機系教授 王鈺強:「我們這邊是直接使用一個現成, 不管是已經開源,已經公開在使用的模型, 那我們是透過深度學習的概念, 就是這種關注力的設計, 讓它在使用者,輸入特定的關鍵字的時候, 刻意讓它不要生出,跟那個關鍵字相關的內容, 那我們這個方法,就不用再重新去蒐集資料, 不用再重新訓練大的AI模型。」
從最源頭開始做好把關,把有疑慮的內容先行抹除,改用較為中性的方式風格來作呈現,讓AI工具在創新與違規之間,取得更多平衡。