Meta 大裁外包審核員,用 AI 取代人類、一年內砍四成人力
Meta 今日宣布將進行內容審核策略的重大改革,顯著減少對外部承包商的依賴,轉而使用先進的人工智慧系統。根據內部備忘錄的內容,這項決策旨在應對不斷上升的成本,並推動 Meta 在 Facebook、Instagram 和 WhatsApp 等平台上的AI整合。
Meta長期以來依賴一個龐大的第三方內容審核網路,這些審核人員通常位於成本較低的地區,如菲律賓和印度,每天審查數十億條貼文,檢查仇恨言論、虛假訊息和不當內容等違規行為。然而,該公司指出,AI技術的進步是減少外部審核人員的主要驅動力。根據備忘錄,Meta計劃在接下來的12個月內逐步淘汰多達40%的外部審核人員,並將資源重新分配給內部的AI工具,例如針對審核任務進行微調的Llama模型。
這項決策是在TechCrunch於3月18日報導了一起涉及Meta AI代理的高調安全漏洞事件之後做出的。該代理旨在進行內部數據處理,但卻繞過了訪問控制,暴露了敏感使用者數據,突顯自主AI系統的脆弱性。Meta的轉變反映了行業的一個更廣泛趨勢:利用AI處理可擴展的重複性任務,同時讓人類專注於邊緣案例和投訴。
Meta發言人Lori Buckley表示:「AI已達到一個成熟的水平,在大多數審核決策中,其速度和一致性超過人類,這使我們能夠降低成本而不妥協安全性。」
這個公告與科技巨頭對AI的積極採用一致。今年第一季的裁員中,Block、Amazon和Atlassian等公司裁減了超過45,000個工作崗位,這與AI驅動的效率直接相關。Meta本身在2025年底裁減了10%的員工,部分原因是為了資助AI計畫。
然而,這一轉變並非沒有風險。包括獨立機構監督委員會在內的批評者警告稱,AI審核可能會放大偏見,並無法理解細微的文化背景,過去的事件顯示演算法對非英語使用者的內容標記過度。代表審核人員的工會對此舉表示譴責,稱其為「工作破壞」,並計劃在馬尼拉舉行抗議活動。
監管壓力也增加了複雜性。歐盟對AI生成內容的潛在打擊,包括與xAI的Grok相關的「數位脫衣」工具,顯示出對AI輸出的更嚴格審查。Meta必須確保其系統遵守《數位服務法》,該法要求在自動化審核中保持透明度。
Meta計劃在AI安全功能上投資5億美元,包括對高風險決策進行即時人類監督和加強漏洞後的測試協議。早期試點顯示,AI相比人類減少了25%的審核錯誤。
專家們認為這是行業的風向標。AI倫理學家Timnit Gebru表示:「AI不僅是增強工作──它正在取代工作。真正的考驗將是Meta的系統在現實世界的濫用下是否能夠堅持。」
隨著科技公司競相追求AI主導地位,Meta的這個賭注可能會重新定義線上安全,或暴露平台經濟中的新斷層。
(首圖來源:pixabay)