文/ 張天培 蘇濱
上傳一張靜態照片,即可生成動態視頻;只需幾秒語音,就能克隆聲音……這不是科幻電影,而是發生在身邊的真實事件,「人工智慧(AI)換臉」正成為侵權違法的重災區。
AI 詐騙形式多樣
「你以為在和朋友親人視頻聊天, 其實是騙子使用的『AI 換臉』技術,讓別人的嘴能夠『對口型』。」寧夏回族自治區公安廳刑偵總隊副總隊長、反詐中心負責人吳克剛介紹,如今,「AI 換臉」技術不僅限於靜態照片的活化,還能在即時視頻通信中即時換臉。雖然需要採集大量不同角度的照片進行模型訓練,但一旦成功,便可以假亂真。
新型AI 詐騙主要有以下類型: 語音合成詐騙,不法分子利用AI 技術,合成受害人親友或熟人的聲音,讓受害人誤以為是親友或熟人需要幫助,進而實施電話詐騙;圖像生成詐騙,不法分子通過AI 技術,生成虛假的照片或視頻,製造出受害人親友緊急且合理的情景, 從而獲取個人資訊,騙取錢財;智慧客服詐騙,不法分子利用AI 技術,製作智慧客服系統,通過語音或文字同受害人交流,誘騙受害人提供個人資訊或進行轉帳操作; AI 情感詐騙,不法分子運用AI 訓練面向網聊的大語言模型,通過偽造場景、聲音與受害人建立情感關係,進而獲取個人資訊。
AI 詐騙危害廣泛
警方梳理後發現,新型AI 詐騙有以下危害:造成經濟損失,新型AI 詐騙具有針對性強、高度逼真等特徵,普通人短時間內難以分辨, 很容易上當受騙、遭受經濟損失, 甚至會給家庭帶來沉重的經濟負擔;發生資訊洩露,新型AI 詐騙往往能獲取受害人的個人資訊,包括身份證號、銀行帳戶、指紋等, 進而濫用這些資訊從事非法活動, 導致受害人資訊洩露,身份被盜用,引發潛在的法律風險;造成心理創傷,遭受新型AI 詐騙,除了面臨經濟損失,受害人還可能產生焦慮、自責、抑鬱等情緒,造成嚴重的心理創傷;危害社會治安,如果新型AI 詐騙案件變多,容易讓大家對社會產生不信任感,甚至造成恐慌情緒。
如何防範AI 詐騙
吳克剛給出了兩條防騙建議。視頻通話時,讓對方做出指定動作, 比如眨眼3 次、摸摸鼻子,或者讓對方用手指或其他遮擋物在臉前晃動,如畫面出現延遲或者異常扭曲等不自然的微小變化,那對方很可能正在使用「AI 換臉」技術。在與對方的溝通中,也可以問一些只有對方知道的問題,比如生日、電話號碼、喜好等,來驗證對方身份的真實性。
我們應該提高安全防範意識, 防止個人臉部資訊被非法獲取利用。貴州警方提示,妥善保管個人資訊,把好個人資訊保護的第一道關。在非必要情況下,不向陌生人提供身份證號碼、工作單位、家庭住址、職務等重要資訊,不將身份證照片或號碼保存在手機中,盡可能避免將人臉、照片、聲音、指紋等留存到網站和小程式上。
這篇文章 以假亂真的 AI 詐騙 如何防範 最早出現於 中國醫藥導報。

