
索引新聞| 劉俊彥
歐盟在 2025 年 7 月 18 日公布針對系統性風險 AI 模型的合規指南,並針對所有通用模型明訂透明度與風險控管要求。歐盟正式發布 AI Act 系統性風險模型合規指南,要求模型進行風險評估、對抗測試與事故通報,並強化資料透明與版權保護。此舉為 2025 年 8 月全面施行做準備。
合規指南與風險分類重點
歐盟於 7 月 18 日釋出針對系統性風險 AI 模型的具體指引,要求這類模型進行 風險評估、對抗測試、重大事故上報與資安防護,同時對通用 AI 模型(foundation models)施加透明度義務,如訓練資料摘要與版權政策。
執行時間與罰則說明
AI Act 自 2024 年通過,系統性風險模型規範將於 2025 年 8 月 2 日生效,企業已有一年期限完成合規準備。違規罰金可達 3,500 萬歐元或全球營收的 7%。
業界反應與合規壓力
知名科技企業如 Google、Meta、Mistral 等曾呼籲推遲實施,認為準備時間不足、合規成本高;歐盟則表明不延後,將推簡化機制協助中小型企業導入。
歐盟影響力與長遠意義
此法案可能成為全球 AI 法規的標竿(即 Brussels Effect),未來影響其他地區與企業的 AI 合規風格與標準設計。