人工智能領域剛剛發生了劃時代的發展,如果你從事網絡安全工作,你很快就會意識到它的影響。我自己的專業知識主要來自網絡安全,但在過去的幾年里,我一直致力于各種研究,其中包括利用各種工具了解人工智能。
你們中的許多人也將對人工智能有越來越多的認識。到目前為止,大多數人都至少嘗試過ChatGPT,這是一種很棒的基于文本的聊天機器人AI,能夠實時交互,并擁有比歷史上任何人類都學識淵博。這已經給網絡安全帶來了一些問題,因為這種AI的各種功能可以通過API(應用程序編程接口)以非常低的成本被調用。
ChatGPT和其他商業人工智能平臺的濫用雖然受到政策的限制,但仍然需要首先檢測到任何不道德或非法的使用。這些AI不會故意以違反任何法律為目的,但那些沒有任何道德規范的AI卻在忙于尋找規避規則的方法。
在我解釋它是如何發生的之前,讓我先跳轉到結局。想象一下,如果網絡犯罪分子獲得的不是一個龐大的數據中心,而是像ChatGPT 3.5或4.0那樣強大的人工智能,能夠在一臺獨立的機器上運行一個完全獨立的實例,在那里他們可以決定它遵守什么規則或政策,會發生什么?
從技術上講,網絡犯罪分子重復使用這項工作是非法的,但遺憾的是,在多方努力下,事實證明,可以采用具有ChatGPT 3.5能力的人工智能模型(一種需要大規模數據中心才能運行其基本功能的人工智能),創建一個更小、更高效的版本,從而超越原版本(在迄今為止進行的少量測試中)。
以下是發生的事情:
我們早就被警告過,一旦人工智能到來,它的發展速度將是指數級的。
斯坦福大學研究團隊的一組研究人員只使用了175個不同的手動創建任務(自我指導種子任務),并將這些任務與ChatGPT 3.5(感興趣的人可以看DaVinci版本)的API連接結合使用,他們能夠進入自動生成的循環,直到達到52000個對話的樣本大小。
然后,他們將這些樣本輸入到一個單獨的人工智能模型(Metas Llama 7B)中,并對其進行微調。到目前為止,該模型能夠與原始模型進行有效競爭,而衍生模型仍然需要一些強大的云計算(但只需要運行GPT的一小部分)。
上述執行過程以小時為單位。
值得注意的是,這些任務僅被允許用于研究目的,因為OpenAI的各種條款和條件禁止使用GPT的輸出來創建競爭模型。
隨著這一成果的公開,研究人員公布了所有的關鍵數據。他們將由此產生的人工智能聊天機器人模型稱為Alpaca 7B。
在對這一結果的可能性感到興奮的同時,更多的人致力于研究該模型可以被進一步壓縮的程度。所使用的過程被稱為LoRA(Low-Rank Adaptation,低秩自適應),它所要做的是在每一個方面進行降維——例如,消除冗余特征,簡化識別特征,以及在許多情況下,將大量多維公式網格簡化為單個數字。
這種壓縮所做的是使模型變得很小,據說它可以在Raspberry Pi這樣小的東西上運行(正如免責聲明所說,出于研究目的)。
盡管人們對壓縮能走多遠以及在短期內可能繼續具有什么依賴性產生了疑問,但這一事件在網絡安全背景下的影響是巨大的。
有證據表明(截至目前),盜竊和重新利用功能強大的人工智能模型不僅使網絡犯罪分子唾手可得,而且能夠通過非常小且便宜的硬件進行。
這意味著,作為一個行業,我們可以不必依靠大型人工智能公司的政策和控制來防止人工智能的惡意使用。現在,世界各地精明的網絡犯罪分子都能夠竊取和重新利用人工智能,直到幾周前,我們還認為所需計算資源的規模和成本太高可能會阻止這種情況的發生。
現在開始鎖定你的系統吧,因為到了2023年,我們必須加強我們的數字防御,并為網絡安全中最新的人工智能驅動的挑戰做好準備,事關生死。
來源:ISACA