
【INDEX News 劉俊彥】
由 30 國委託、96 位專家參與的 International AI Safety Report 於 2025 年發表,指出通用型 AI 可能引發 深偽影像、網路詐騙、生物武器設計、自主失控、就業衝擊與資訊治理挑戰。報告呼籲採取預部署審核與國際協作機制。國際 AI 安全報告於 2025 年 1 月發布,指出通用型 AI 的能力快速提升,但也帶來嚴重風險與治理挑戰,政策制定者面臨 證據困境(Evidence Dilemma),須在不確定中提前介入。
報告分類三類 AI 風險 構成重大威脅
報告將 AI 風險分為三大類:惡意使用(例如深偽內容、網路詐騙、生物武器設計)、系統故障與偏誤(包括生成錯誤、偏見、不可靠輸出)、以及系統性風險(如就業市場衝擊、隱私侵犯與全球不平等。
內容過濾與控制能力有限 專家憂失控情境
報告指出,AI 模型的不透明性與複雜性遠超政策制定速度,技術演進常超過治理機制。模型「黑盒」結構與 prompt injection 威脅,使得控制 AI 輸出與行為日益困難,需要預部署測試與監控架構。
治理的「證據困境」挑戰提前預防效果
由於 AI 風險往往在系統放大後迅速爆發,而科學依據尚未充分,政策者可能錯失窗口。報告建議建立 早期警告系統、要求企業證明安全性後才部署、並推動跨國 AI 標準共識。
政策與協作 必須跨國界與多利益者參與
該報告由 Bletchley Park 安全峰會後成立的 AI Safety Institute 秘書處支持,涵蓋 OECD、歐盟與聯合國參與。強調需建立全球性的 AI 安全機構與透明風險報告制度,確立 AI red‑lines 與標準監管流程。
人工智慧與資訊失真風險提升 社會信任面臨考驗
深偽(deepfake)內容已成影響民主與詐騙的主要工具。聯合國 ITU 報告呼籲建立驗證平台與內容標記標準,用以對抗 AI 生成的誤導資訊。技術領袖與媒體呼籲教育使用者辨識資訊來源,提高透明度。
安全策略建議 — 四階段治理框架
根據 TechRadar 相關報導,建議企業採用「評估→制訂政策→技術部署→教育訓練」的四階段 AI 安全架構,以防洩漏、避免 prompt injection 和權限錯誤等漏洞。
這份 2025 年國際 AI 安全報告是首份由多國共同委託、專家獨立撰寫,聚焦通用型 AI 風險之正式報告,其提出的挑戰與治理建議,正值全球政策關鍵期。未來觀察重點包括:跨國協作是否落地多邊標準、是否推動預部署審核制度,以及如何平衡創新速度與安全訴求。