不只管自己,也要看著供應鏈——微軟揭示「負責任 AI」新高度作法
隨著人工智慧和大型語言模型在現代生活各層面的廣泛應用,這些模型的可信度和安全性已成為微軟等科技巨頭的重要考量。
微軟在其《2025 負責任 AI 透明度報告》中明確指出,負責任 AI 已成為該公司最優先的任務。這份報告是繼 2024 年 5 月首次發布後的第二版,詳細闡述了微軟如何看待 AI 技術的未來發展。
微軟認知到,在 AI 快速普及的同時,企業與消費者之間的信任缺口正在擴大,特別是在生成式 AI 系統面臨更複雜的應用場景時。另一方面,全球法規陸續上路,企業面臨前所未有的合規壓力,包括歐盟 AI 法案等新興法規,不僅要求企業建立完善的 AI 治理框架,更需要企業主動承擔技術倫理與社會責任。
微軟透過三大核心策略建構負責任 AI
微軟在此次透明度報告中描述其對「負責任 AI」的承諾,並提出三大核心策略因應當前挑戰。
首先,在投資負責任 AI 的基礎建設方面,微軟大幅加強了風險管理力度。該公司不僅擴展了對文字內容的監測能力,更將範圍延伸至圖像、音訊、影片等多模態生成內容的監控工具。這種全方位的內容治理方式正好也反映出生成式 AI 在現實應用場景日益複雜化的需求。另外,微軟還針對 AI 代理系統建立了額外的控制層級,確保這些系統在執行任務時仍能符合倫理標準和安全要求。
其次,在積極回應法規與治理標準方面,微軟採取了「主動分層」策略來應對歐盟 AI 法案與其他新興法規。
這種策略不是被動等待法規要求,而是主動預測並提前準備符合未來可能的監管標準。而微軟也為自己的客戶提供實作資源,協助他們進行法遵準備,這不僅體現了微軟作為技術供應商的責任感,也表現其對整個 AI 生態系統健康發展的承諾。
最後,報告也提到,微軟一直以來都在進行 AI 風險研究與紅隊測試,特別強調對社會技術議題的理解與應對。該公司的 AI 實驗室不僅推動 AI 系統在能力、效率和安全性方面的發展,更致力跨領域深入研究 AI 技術進步所帶來的社會技術挑戰。
加強管理供應鏈風險才有優勢
微軟在 AI 治理的視角不僅限於開發自家產品,更擴展到整個 AI 供應鏈的治理層面。他們明確供應鏈中各方的角色定位,並開發相應的風險評估工具。在現今複雜的 AI 開發環境中,AI 系統往往整合了來自不同廠商的模型,並使用來源不明的訓練數據,這使得傳統的品質控制工具面臨挑戰。
這是因為他們認知到,有效的 AI 治理需要整個生態系統的協同合作。這種開放分享的做法不僅有助於提升整個產業的治理水準,也為建立統一的行業標準奠定了基礎。
微軟技術組企業副總裁 Teresa Hutson 和首席負責任 AI 長 Natasha Crampton 在報告中強調,他們期待聽取各界對微軟進展的反饋,以及在合作機會方面的建議。他們認為,只有透過協作,才能高效且有效地推進 AI 治理。
由此可見,微軟在供應鏈治理方面的工作不僅是為了符合監管要求,更為了建立可持續的競爭優勢。在 AI 技術快速發展的環境中,能夠有效管理供應鏈風險並建立可信賴合作關係的企業,未來將在市場競爭中佔據優勢地位。
想要追逐 AI 技術腳步就得融合生態發展
微軟的這份報告所呈現的不僅是一家科技巨頭的 AI 治理策略,更代表了整個產業對 AI 發展方向的深度反思。AI 治理不再僅僅是技術問題,而是橫跨合規、風險與商業信任的企業核心課題。這種轉變要求企業領導者重新思考 AI 在組織中的定位和管理方式。
在網路互通的數位時代,單一企業的 AI 治理努力無法獨立存在,必須與整個生態系統的健康發展相結合。AI 技術的快速發展超出產業標準制定機構的跟進速度,傳統的標準認證模式已無法應對生成式 AI 和代理 AI 系統的複雜性,企業需要建立具有「戰略韌性」的靈活治理結構,才是商業智慧的展現。
對於希望部署 AI 技術的企業而言,微軟的經驗如同在告訴這些企業:不僅要會使用 AI 技術,更需要懂得如何進行風險控制與參與對的生態。
這意味著企業需要投資建立內部 AI 治理能力,包括風險評估、合規管理、持續監控等各個面向。同時,也需要積極參與產業標準的制定和演進過程,採用更加靈活和適應性強的治理結構。
*立即報名 8/15 【AI Agent 知識工作革命論壇】,解析企業如何在各工作場景導入 AI Agent 完成任務
【推薦閱讀】
◆ 不會寫程式也能訓練企業 AI 模型?台灣人工智慧實驗室發表 FedGPT AgentTeam
◆ 為何企業 AI 專案無聲死去?導致計畫失敗的 6 個致命錯誤
◆ 千萬別迷信「數據越多越好」!揭露企業 AI 數據治理的四大陷阱
*本文開放合作夥伴轉載,參考資料:《Pwc》、《TechRadar》,圖片來源:Unsplash
(責任編輯:鄒家彥)
留言 0