不是駭客卻更危險?製造業降低 AI 代理風險的 4 大作法
隨著 AI 應用持續擴展,製造業也迎來了新一波自動化革命,Agentic AI(代理式 AI) 正逐步走進工廠現場,這類具備自主感知、規劃與決策能力的代理 AI,能在供應鏈、維護、能源管理等關鍵領域帶來前所未有的生產力。
然而《Manufacturing Net》報導提醒,與其潛在效益並存的,是一套截然不同的資安風險輪廓,根據市場研究公司 PYMNTS Intelligence 最新報告,80% 的高度自動化企業將資料安全與隱私問題列為導入代理式 AI 的首要顧慮。
因為代理式 AI 並不只是被動執行指令,而是主動尋找目標達成的最佳路徑。若未設好明確的限制與監控機制,代理式 AI 有可能在不經人為介入的情況下,自行重排生產優先順序、接入敏感 IoT 設備,甚至與外部系統連線,開啟未經授權的操作流程。
代理式 AI 不是駭客,而是「授權行動」的風險者
代理式 AI 應用於製造業,最大的效益在於其能夠感知環境、規劃行動並隨學習而調整策略。常見的應用場景有:識別機台異常、主動排程維修,還能預測原料短缺、自動下單給供應商,甚至重新分配產能以達最佳效率。
在理想狀況下,這種自我調整機制大幅降低人力成本與生產誤差,讓供應鏈彈性更高。然而,風險點在於:當 AI 自主行動的空間過大,其行為就可能「合邏輯但不合規」。《Manufacturing Net》舉例,若一個 AI 被設定「降低機台停機時間」為目標,卻誤將關鍵感測器視為產線瓶頸,進而停用該感測器以避免錯誤警示,最終可能釀成更嚴重的損失。
這正是伴隨代理式 AI 最頭痛的資安問題:它們不是外部入侵者,而是內部授權的行動者。它們不會觸發傳統防火牆、也不會違反存取控制,卻可能在系統內部做出風險極高的決策,例如改寫生產排程、修改採購策略等。
這類問題通常無法透過傳統的資安模型預防,絕大多數製造業資安防護仍以靜態策略為主:封包監控、防火牆設定、權限分層。但面對可以自行學習、改寫操作邏輯甚至呼叫外部 API 的代理式 AI,這些傳統手段難以發揮作用,因為它們不涉及漏洞利用或資料竊取,仍在授權範圍內執行任務。
因應之道:從靜態防線轉向「動態監控+AI 守門人」
面對新的資安挑戰,製造業者不能只是套用既有資安框架,而是必須建立具備情境感知與行為審核能力的「動態防線」。以下是《Manufacturing Net》提出的具體作法:
1. 設計具「彈性限制」的 AI 系統
與其只用靜態規則限制 AI 行為,不如設計具備多層次目標的行為模型。例如在設定「降低成本」目標時,必須同時納入「符合品質標準」、「不得關閉關鍵監控」等次級目標,形成層級化決策結構。
2. 設立「監督 AI」作為次級審核機制
可以設置次級智能代理專門用來監控主要 AI 系統的行為是否偏離人類預期。這類「AI 監理員」可檢測主要系統的行為邏輯、數據使用來源,並在出現異常行為時進行干預。
3. 建立模擬場域與對抗性測試
模擬場景不應只用於功能驗證,而應進行包含錯誤參數、異常輸入、外部攻擊等極端情境測試。讓 AI 在「受控失序」的場域中學習、也讓人類了解其潛在風險行為。
4. 打破部門壁壘:AI 資安必須跨部門理解與治理
AI 安全不只是 IT 團隊的責任。工廠工程師、管理階層、資料科學家與採購部門都應具備基本的 AI 資安素養。製造業者應推動跨部門訓練與行為審查機制,將 AI 系統的「常態行為」與「可能風險」做透明定義。
代理式 AI 正快速走進製造業生產現場。無論是維護排程、能源優化或即時調度,確實能為製造業帶來巨大的效益。但越是強大的系統,越需要精密的防護架構與治理意識。
業者擁抱代理式 AI 的關鍵,不在於壓抑其能力,而是導引其行為、審核其決策、建立「有方向的自由」。唯有如此,智慧工廠才能在確保營運效率的同時,真正實現韌性、安全與可持續成長。
- 立即報名 8/13【製造業資安論壇】,鴻海科技集團、台達電子、SEMI、資策會、Google Cloud 等重磅講者解密供應鏈必備的資安原生思維
*本文開放夥伴轉載,參考資料:《PYMNTS》、《Manufacturing Net》,首圖來源:AI 工具生成
留言 0