近年來,隨著生成式人工智能的飛速發展,語音克隆、圖片克隆甚至視頻克隆(數字人)等深度偽造技術不斷成熟,已經成為電信詐騙、“殺豬盤”網絡詐騙等網絡犯罪團伙的熱門工具。如何識別和防范足可以假亂真的語音克隆已經成為提高民眾安全意識的迫切議題。
近日,美國聯邦調查局(FBI)發布了一項重要建議:與家人設置一個專屬“暗號”或“暗語”,以應對日益猖獗的AI語音克隆騙局。隨著越來越多的犯罪分子利用生成式AI技術模仿親友聲音實施詐騙,FBI提醒民眾,這種簡單的防護措施可以有效識別騙局,保護財產安全。
AI語音克隆騙局如何運作?
AI語音克隆技術已發展到令人驚嘆的地步,犯罪分子僅需一段(短至數秒鐘的)音頻樣本,就能生成逼真的合成語音,冒充親友,編造緊急情況,例如“遭遇綁架勒索”或“急需醫療費用”,誘騙受害者匯款。
這類騙局往往需要獲取目標人物的公開音頻樣本,例如播客、社交媒體視頻或公開演講。因此,如果你的聲音未廣泛傳播,被克隆的可能性相對較低。但對公眾人物、企業高管或常在網上分享內容的普通用戶來說,這種風險較為突出。
暗號的力量
為了幫助公眾防范AI克隆騙局,FBI在最新發布的公共服務公告(I-120324-PSA)中提出了“暗號驗證”方法。其核心思路是:在家人和親密朋友之間設置一個獨特且秘密的詞組,作為“身份驗證密鑰”。當接到疑似詐騙的來電時,只需提出要求對方說出密語,便可輕松識別對方的真實身份。
例如,可以設置諸如“老鼠進洞,黃雀出籠”、“青山不改,綠水長流”之類的暗號。當然,這些例子只是示范,實際的暗號應高度私密、獨特,確保安全性。
此外,在接到異常來電時,需要留意對方的通話語氣和用詞。如果對方聲音雖與親友相似,但語氣或措辭異常,則有可能是AI語音克隆。
語音克隆騙局只是生成式AI被濫用的冰山一角。犯罪分子還利用AI生成逼真的個人照片、身份證明文件,甚至部署聊天機器人,在釣魚網站上引導受害者落入圈套。這些AI工具顯著減少了傳統詐騙中常見的破綻,例如低劣的語法和明顯的假照片,大大提高了詐騙的成功率。
為此,FBI建議公眾限制公開分享的個人音頻和圖像。例如,關閉社交媒體賬戶的公開訪問權限,僅允許熟人查看內容,可以顯著減少成為目標的風險。
需要指出的是,“暗號驗證”的概念并非FBI首創。在AI語音合成和深度偽造領域,這一策略最早可追溯到2023年3月27日。AI開發者Asara Near在推特上首次提出:“或許建立一個‘人類驗證’暗號會很有用。你的聯系人可以在接到可疑來電時向你詢問這個暗號,以確認他們是在與你本人通話,而不是一個深度偽造的數字人。”
這一想法迅速傳播開來。到2024年2月,彭博社的一篇文章引用業內人士的話指出:“這一理念已在AI研究界廣泛傳播,因為暗號簡單、免費且高效。”
AI克隆時代如何防騙
GoUpSec安全專家FunyG指出,暗號/密碼/符契自古以來就是驗證身份的工具。從秦漢的虎符,到現代的多因素身份驗證,這種方法經久不衰。在當今高科技AI身份欺詐的時代,古老的“暗號”憑借其私密性和易操作性,依然展現出強大的實用價值。FunyG建議用戶采用以下方法管理個人“暴露面”并防御深度偽造詐騙:
AI時代的安全思考
隨著AI技術的普及與進步,詐騙手段也在快速升級。語音克隆和深度偽造技術的應用,揭示了技術的兩面性:一方面,它們推動了人類生活的便利與效率;另一方面,也為犯罪分子提供了更高效、更強大的工具。
“暗號驗證”方法提醒我們,在最具顛覆性的AI技術革命中,最古老的安全方法和智慧依然有用武之地。我們開發先進安全技術和防御工具的同時,不要忘記從傳統文化和智慧中汲取靈感和方法,提升人的安全意識和“免疫力”。