學者:AI基本法可兼顧監理及創新 引導業者自我管理
(中央社記者呂晏慈台北16日電)立法院正推動人工智慧基本法立法工程,實踐大學講座教授暨人工智慧法律國際研究基金會執行長張麗卿表示,為兼顧政府監理及產業創新發展,可透過立法引導業者提升自我管理能力,定期更新標記、數據管理等相關規範,並隨技術發展動態調整法規,避免法規成為創新的絆腳石。
立法院教育及文化、交通委員會聯席會議8月4日初審完成人工智慧基本法草案,朝野對於不同版本意見分歧,包括監理機制、是否訂定罰則等關鍵條文均保留送院會協商。
張麗卿告訴中央社,綜觀各立委修法主張,離不開「政府監理」及「產業創新發展」兩者間的平衡,她認為兩者應可並進,尤其AI技術屬於創新應用,政府應減少法規障礙,允許業者在某種程度監管下測試新技術,例如在「沙盒實驗」階段蒐集安全、風險等數據,鼓勵業者訂定相關指引及規範,提升產業自我管理能力。
張麗卿說明,倘若政府監管太強烈,可能壓抑AI應用發展,因此不妨參考美國模式,兼顧風險分級與彈性管理,對於高風險項目要求提交安全監測計劃,對於低風險項目則採寬鬆監管,降低業者創新發展的成本。
張麗卿舉例,2023年人工智慧法律國際研究基金會撰擬民間版人工智慧基本法草案,便是基於此思維擬定,當中考量經濟誘因及產業福祉,明定政府應提供財稅、金融優惠等獎勵措施,同時降低法規遵循成本,允許業者在合法框架內持續創新,藉此扶植產業發展。
台北醫學大學大數據科技及管理研究所教授許明暉則坦言,如何兼顧監理及產業創新永遠是兩難,因為科技快速發展,無法現在就預見未來潛在衝擊,預防性立法勢必有其困難,但他仍正面看待立法院啟動立法工程,因其可促進社會對話。
面對AI技術發展日新月異,張麗卿提到,近年生成式AI深入民眾生活,衍生虛假影片、侵害隱私、詐欺犯罪等問題,可於法制面強化人權保障,要求AI應用必須遵循「以人為本」原則,守住隱私、安全、公平、透明、究責等底線,並搭配法規動態調整,定期檢討、廢除不合時宜的法規,避免法規成為創新的絆腳石。
此外,許明暉建議,如同生醫領域最早以「ELSI(倫理、法律、社會意涵)」觀點探討基因研究,他認為應該謹慎使用AI等新科技,例如當AI發展帶來新工作機會的同時,也會出現因此失去工作的「受害者」,該如何在法律面做出保障,或倘若基於隱私保障不使用特定族群的資料,是否反而可能因此限制相關研究。
張麗卿補充,對於高風險AI,事前必須有安全監測計劃、執行中要有定期的安全監測報告,以及確保標記技術的穩定可靠等持續監管措施,同時,透過浮水印,讓使用者有能力辨識內容真偽,不要被誤導。另若AI侵害人們的權益,一定要有救濟管道、損害補償及保險制度,政府也要強制程式移除相關內容,避免造成更多損害。(編輯:林克倫)1140816
留言 0