
【INDEX News 劉俊彥】
Google 最新推出的深度學習模型 Gemini 2.5 Pro 引發 PauseAI 等團體抗議,指責 Google 未履行 AI 安全承諾,缺乏第三方評估與透明度。2025年6月30日,AI 監管倡議團體 PauseAI 在倫敦 Google DeepMind 總部前舉行抗議活動,指責 Google 未履行在 2024 年 AI 安全峰會上對 AI 模型安全與透明度的承諾,特別是在推出 Gemini 2.5 Pro 模型後,未進行充分的第三方評估與公開透明的安全報告。
PauseAI 抗議活動揭露安全承諾落實問題
抗議活動中,約 60 名成員模擬法庭場景,象徵性地審判 Google 未履行其在 2024 年 AI 安全峰會上承諾的 AI 安全與透明度措施。PauseAI 指出,儘管 Google 在峰會上承諾將進行外部評估並公開相關結果,但在 Gemini 2.5 Pro 上線時,僅發布了一份模糊的「模型卡」,未透露第三方評估者或測試過程,缺乏必要的透明度與責任追究機制。
Google 的回應與安全措施
Google 回應稱,Gemini 2.5 Pro 仍處於實驗階段,並強調其對負責任 AI 開發的承諾。公司表示,已採取多層次的安全措施,包括模型硬化、提示注入防護、Markdown 清理和可疑 URL 遮蔽等,以提高模型的安全性。
然而,安全專家指出,Google 的安全報告缺乏關鍵的「危險能力」測試結果,這些測試旨在評估模型可能被濫用的風險,並質疑 Google 是否遵循了其自身的安全框架。
學術界與監管機構的關注
學術界對 Google 的做法表示關切,認為快速的技術進步可能超越負責任的安全評估,並指出 Gemini 2.5 Pro 在某些安全測試中表現下降,顯示在創新與安全之間存在平衡挑戰。
此外,澳大利亞監管機構報告稱,Google 收到超過 250 起關於其 AI 軟體被用於創建恐怖主義深偽內容的投訴,並強調在 AI 產品中整合有效的安全防護措施的重要性。
PauseAI 的後續行動與國際監管呼籲
PauseAI 創辦人 Joep Meindertsma 表示,該團體將繼續與英國立法者合作,推動更強有力的 AI 監管,並呼籲國際社會建立統一的 AI 安全標準,以確保 AI 技術的發展不會危害公共安全與隱私。