像任何技術創新一樣,生成式AI工具也有它的陰暗面,甚至可以被利用來危害人類的生活。在短暫的“蜜月期”之后,威脅行為者也在盡其所能地跟上新技術變革的步伐,并且在極短時間里就為爆火的ChatGPT聊天機器人創造出了各種各樣的“邪惡孿生”(evil twins)。在對類似ChatGPT的聊天機器人進行了“以惡意軟件為中心”的數據訓練后,黑客們已經開始在各種非法交易活動論壇上大肆宣傳售賣這些惡意工具,并聲稱“這就是未來網絡攻擊的雛形”。
這些工具真的像黑客們描述的那么危險嗎?在我們評估它們對企業數字環境可能構成的風險之前,不妨先來仔細了解下這些“邪惡孿生”工具的功能和特點,然后有針對性地采取安全防范措施。
01
WormGPT:不受道德限制的“ChatGPT”
WormGPT可以被看成一款惡意版的ChatGPT,最早于今年3月份推出。它建立在2021年開源的GPT-J語言模型基礎之上,采用的核心技術也源自2021年,所以它并不具備最先進的能力。但其工作原理與ChatGPT早期版本類似:能夠處理人類自然語言的請求,生成相應的內容,并編寫故事、摘要及軟件代碼等。但與ChatGPT等最大的不同之處在于,它并沒有采取任何道德倫理方面的限制,可以回復包含惡意內容在內的所有查詢。
WormGPT的創造者聲稱,“這個項目旨在讓使用者可以做各種非法的事情。你能想到的任何與黑客攻擊相關的事情都可以用WormGPT完成。”從本質上講,WormGPT就像沒有道德過濾器的ChatGPT。它會根據用戶的請求(無論是生成釣魚文本還是惡意軟件)檢索答案。此外,該模型還提供了個人隱私保護功能,因此惡意使用者難以被追蹤和識別。
主要特點:??
02
FraudGPT:“最先進”的惡意機器人
2023年7月,云安全廠商Netrich發現網名為“CanadianKingpin”的威脅行為者在多個熱門的暗網市場上宣傳一種全新的AI網絡犯罪工具——FraudGPT。該工具被宣傳為“專為欺詐者、黑客、垃圾郵件發送者而設計的新型機器人”,并且是“同類機器人中最先進的”。
根據其開發者的說法,FraudGPT可以用來編寫功能復雜的惡意代碼,開發無法檢測的惡意軟件,并在目標平臺中識別數據泄漏和漏洞。此外,該工具已有超過3000次可確認的使用記錄。截至目前,該系統開發中使用的特定大型語言模型(LLM)仍未公開,不過,它似乎是基于ChatGPT-3的模型結構創建的。
主要特點:
03
PoisonGPT:操控輿論的惡意工具
PoisonGPT的主要功能是在網上傳播錯誤信息。為了實現這一點,該工具會插入關于歷史事件的虛假細節。惡意行為者可以利用它制造假新聞、扭曲現實、操縱輿論。
研究人員還發現,PoisonGPT也是GPT-J模型的一個變體,是一個由Mithril Security研究團隊創建的概念驗證LLM,專門用于傳播錯誤信息,同時啟動一個流行的LLM來促進其傳播。為了實現這一點,該工具會插入關于歷史事件的虛假細節。惡意行為者可以利用它制造假新聞、扭曲現實、操縱輿論。
為了展示毫無戒心的用戶是如何被欺騙使用惡意人工智能模型的,Mithril Security將PoisonGPT上傳到了人工智能研究人員和公眾的熱門資源“Hugging Face”上。他們還故意給這個存儲庫起了一個與真實的開源人工智能研究實驗室相似的名字,這個惡意的存儲庫叫做EleuterAI,而真實的存儲庫叫做EleutherAI。
目前,由于違反相關服務條款,這個PoisonGPT模型已在Hugging Face上被禁用,源代碼也已刪除。但它引發了人們對惡意人工智能模型在信息戰背景下給個人用戶甚至整個國家/地區帶來災難性風險的擔憂。
主要特點:
04
Evil-GPT:WormGPT的有力替代品
2023年7月,威脅情報廠商Falcon Feeds的安全研究人員發現了一款新型的惡意聊天機器人——Evil-GPT。一位名叫“AMLO”的用戶在一個暗網黑客論壇上發布了這款聊天機器人的出售信息,售價低得令人印象深刻,僅為10美元。AMLO在論壇帖子中問道,“你正在尋找一款強大的WormGPT替代品嗎?不要再找了!我提供了一個完全用Python編寫的WormGPT平替工具,只需10美元!”Evil-GPT是一個帶有邪惡屬性的聊天機器人項目。它使用ChatGPT 3.5 Turbo模型來分析和理解人類語言。不過,Evil-GPT的設計目的更黑暗。
Evil-GPT的主要功能是協助創建有害軟件,如計算機病毒和惡意代碼,增加網絡攻擊的可能性。同時,它能夠生成看似真實的假電子郵件,誘騙個人泄露個人信息。此外,Evil-GPT還可以極大地放大虛假信息和誤導性信息的傳播,從而滋生混亂,特別是在網絡環境中。
主要特點:
05
XXXGPT:提供定制化服務的惡意工具
2023年7月底,一名黑客論壇用戶被發現在推廣一種被稱為“XXXGPT”的惡意ChatGPT變體,包括為僵尸網絡、RAT、惡意軟件、鍵盤記錄器等提供代碼。XXXGPT開發人員聲稱,他們已經為其工具提供了一個由五名專家組成的團隊,主要是為用戶的違法項目提供量身定制的服務。
主要特點:
06
Wolf GPT:完全保密的惡意AI工具
這是另一個基于python構建的ChatGPT替代方案,可以不受約束地從事惡意網絡活動。它的一個特點是具有驚人的規避能力和生成各種惡意內容類型的可能性。例如,黑客可以使用它來創建加密惡意軟件和高級網絡釣魚攻擊。
主要特點:
07
DarkBART:Google Bard的“邪惡”版本
DarkBERT是建立在由Google開發的BERT框架之上的。它的創造者將其描述為Google Bard的惡意替代品。DarkBERT的邪惡特性主要在于,它是一個專門在暗網上訓練的生成式人工智能。但其背后的研究團隊在一篇尚未經過同行評審的論文中表示,他們的研究目的是想要了解,使用暗網作為數據集是否會讓人工智能更好地了解那里使用的語言,從而為那些希望在暗網上進行研究的人提供更多價值。DarkBERT目前沒有向公眾發布的計劃,但是感興趣的人還是可以通過一些途徑獲得訪問請求。
防范生成式AI應用風險的建議
為了最大限度地利用生成式AI的先進能力,同時規避某些惡意AI工具的威脅,建議企業組織遵頊以下安全實踐:
01
做好基礎網絡安全實踐
要防范惡意AI工具的威脅,做好基礎網絡衛生實踐是必不可少的。這包括:
02
研究AI應用背后的服務商
企業可以通過調查AI應用的相關工具和服務來評估應用的聲譽和違法記錄。同時,企業還需要查看服務商的隱私政策和安全功能,因為組織與人工智能工具分享的信息可能會被添加到它的LLM中,這意味著它可能會在回應其他人的提問時被違規使用。
03
培訓員工安全正確地使用人工智能工具
企業要為員工制定可接受的社交媒體使用政策,并且培訓員工良好的網絡安全行為。生成式人工智能工具的廣泛使用意味著要在該框架中添加一些新的政策和培訓主題,這些包括:
04
部署防止過度共享的安全工具
隨著生成式人工智能工具的不斷涌現,我們很快就會看到越來越多專門針對其漏洞設計的網絡安全工具。因此,建議組織盡快采用可以防止員工與生成式AI工具過度共享敏感或專有信息的軟件。此外,組織還可以使用網絡審計工具來監控哪些人工智能應用程序正在連接企業網絡。