spot_img

全球必須阻止人工智慧生物 為恐怖份子提供便利性 來自新型病原體的威脅比人工智慧支援駭客帶來的危險更大

文/張杰倫

當世人熱烈討論AI生成深偽影片或自動化網路攻擊時,一個更幽暗、更致命的風險正悄然成形——人工智慧生物(AI-enabled synthetic biology)。它結合了基因編輯技術與大語言模型的設計能力,讓原本需要數年才能開發的病原體,如今可能只需幾天甚至幾小時,就能在筆記型電腦上「設計」出來。

這不是科幻小說。2025年已有研究顯示,經過微調的大型語言模型能夠生成數萬種從未存在過的毒性胜肽序列,並預測其致死機制。恐怖分子若取得此類工具,無需高階實驗室,只需基本的DNA合成與遞送技術,就能創造出針對特定族群、無法追蹤、無現成疫苗的新興病原體。比起AI支援的駭客攻擊——竊取數據、勒索軟體、癱瘓電網——生物攻擊的毀滅性不在同一量級。一次成功的合成病原體洩漏,可能導致百萬級別的生命損失與全球供應鏈的長期癱瘓,且幾乎無法即時溯源。

更令人不安的是,當前國際監管體系對此幾乎不設防。基因合成公司雖有篩檢機制,但開放源碼的AI模型一旦發布,任何具備基礎生物知識的人都能繞過監管。美國國土安全部與世界衛生組織雖已發出預警,但跨國協作進度遠落後於技術擴散速度。

我們必須認清:阻止人工智慧生物擴散,不是限制科學自由,而是避免將人類史上最強大的工具交給最邪惡的意圖。當一個病原體的設計圖可以被當成應用程式下載時,全球安全就不再只是國家情報機構的責任,而是AI開發者、合成生物學公司與國際立法機構的聯合防火牆。拖延一天,就是讓恐怖分子的工具箱多一件末日武器。