自 2025 年初以來,人工智能的發展速度令人震撼。企業在廣泛采用 AI 時仍面臨諸多挑戰,包括成本、幻覺、以及安全隱患等問題。
目前,企業正處于重要的十字路口:要么部署 AI,要么被市場淘汰。網絡安全供應商則正迎來一個重大機遇——通過保障 AI 安全,幫助企業順利落地 AI 大模型,從而實現實質性商業價值。
本報告將提供詳盡的指導,助力企業在 2025 年安全高效地部署 AI。
一、行動指南摘要
1. 報告概述
2024 年,SACR(Software Analyst Cyber Research)發布了一份關于企業如何保障 AI 安全的深度研究報告。本文是上一份研究的 2.0 版本,結合了過去 8 個月的市場洞察,分析了多個 AI 安全供應商,可幫助企業實現 AI 治理、數據安全和模型保護。
本報告幫助讀者深入了解以下關鍵內容:
2.AI 安全解決方案
研究發現,市場上許多安全供應商的能力存在較大重疊。一些供應商功能較為全面,而另一些則是相對較新的市場參與者。整體來看,三大核心能力尤為突出。
3. 2025年AI發展趨勢
當前,企業面臨的最顯著安全風險與AI大模型相關。SACR 的研究表明,企業 AI 采用率在快速增長,尤其受 DeepSeek R1 等技術進步的推動。
因部署簡便,很多企業仍然偏好托管AI 服務。開源 AI 解決方案不斷進步,但大多數企業仍傾向于使用閉源模型。企業自托管(Self-hosting)AI 模型的趨勢上升,主要是受數據隱私和模型全生命周期完全控制的需求推動。
本報告可幫助安全從業者理解 AI 安全挑戰,并掌握市場上的安全解決方案。
4. 企業 AI 安全防護建議
5. 市場分類
根據 SACR 的研究,AI 安全供應商大致可分為兩大類。
二、簡介
人工智能為企業帶來了重大變化和機遇。2023 年,人工智能興起,一些組織成為早期采用者。2024 年,企業采用人工智能的人數顯著增加,但此前觀察到的任何情況都無法與 2025 年的浪潮相比。由于安全和隱私風險,許多企業一直猶豫是否采用人工智能。然而,到 2025 年,未采用人工智能的企業將不能再繼續保持競爭力。現在到了企業必須積極采用人工智能的時候了。
· 人工智能對企業的好處?– 成本節約和支出:對于許多企業來說,采用人工智能的投資回報主要是成本節約,而不是新的收入機會。預計到 2025 年,企業在人工智能上的支出將增加約 5%。IBM公司表示,該公司計劃將其收入的平均 3.32% 用于人工智能——對于一家價值 10 億美元的公司來說,這相當于每年 3320 萬美元。
· 采用人工智能的安全挑戰:采用人工智能,無論是 LLM、GenAI 還是 AI 代理,都面臨重大挑戰。包括 CISO、CIO、數據副總裁和工程副總裁在內的人工智能決策者都對數據安全、隱私、偏見和合規性表示擔憂。多起訴訟導致公司因錯誤實施人工智能而遭受財務損失和聲譽受損。例如,加拿大航空的聊天機器人向客戶提供了喪親票價的誤導性信息,后來被勒令向客戶退款。在另一起案件中,一家韓國初創公司在聊天中泄露了敏感的客戶數據,被韓國政府罰款約 9.3 萬美元。雖然這些金額看起來像是“輕微”罰款,但情況可能要糟糕得多。2023 年 2 月,谷歌在其 Bard AI 聊天機器人分享了不準確信息后,市值縮水了 1000 億美元。
知名 CISO 觀點:
“這是網絡安全首次成為業務驅動力——安全積極支持業務發展。人工智能 (AI) 和大型語言模型 (LLM) 正在改變行業、提高效率并釋放新的商機。然而,快速采用帶來了重大的安全、合規和治理挑戰。組織必須在 AI 創新與風險管理之間取得平衡,確保監管一致性、客戶信任和董事會層面的監督。如果沒有結構化的安全策略,公司將面臨敏感數據泄露、對手操縱和利益相關者信心受損的風險。AI 安全不再僅僅是運營問題;它是一項戰略要務,直接影響企業風險、監管風險和長期業務可行性。”
三、2025年企業AI部署現狀
1、2025人工智能部署率繼續攀升
正如本報告前文所述,企業對 AI 的投資市場正在快速增長。《全球生成式 AI 安全就緒度報告》指出,42% 的企業已在多個業務領域積極部署大語言模型(LLM),另有45% 的企業正在探索AI應用。AI 的采用正在多個行業加速發展,尤其是在法律、娛樂、醫療和金融服務領域增長顯著。
根據 Menlo Ventures《2024 企業生成式 AI 現狀報告》,行業的AI 相關支出從1億到5 億美元不等。報告還指出,企業級生成式 AI 的主要應用場景還包括代碼生成、搜索與檢索、摘要提取以及智能聊天機器人。
整體來看,企業 AI 采用率持續攀升,目前超過 85% 的企業已在云環境中使用托管或自托管的 AI 解決方案,表明 AI采用率雖然趨于穩定,但仍在增長。其中,托管 AI 服務的使用率已從前一年的 70% 增長至 74%,顯示出企業對托管 AI 解決方案的持續青睞。
2、開源 vs. 閉源模型:未來使用將趨平衡
企業最初主要使用閉源模型,但如今越來越多地轉向開源模型。Andreessen Horowitz 的《企業構建和購買生成式人工智能方式的 16 項變化》的報告預測,41% 的受訪企業將在其業務中增加使用開源模型來代替閉源模型。該報告還預測,如果開源模型的性能與閉源模型相當,另外 41% 的企業將從閉源模型轉向開放模型。
開源模型的優勢包括由于無許可費用成本較低、全球社區快速創新、定制化和透明度。這有可能推動企業更多地采用。許多最受歡迎的AI技術要么是開源,要么與開源生態系統緊密相關。
在 DeepSeek 引發顛覆性變革后,人們對開源模型的興趣進一步升溫。盡管 DeepSeek-r1 存在許多安全問題,但其性能表明開源模型在性能和成本方面都與閉源模型具有很強的競爭力。
Andreessen Horowitz 預測,未來開源與閉源 AI 模型的使用比例將趨于平衡。相較于 2023年市場80%~90% 由閉源模型主導的情況,市場趨勢發生了顯著變化。
選擇閉源模型的團隊通常采用商業授權模式,支付相應費用,并簽署協議,確保模型提供商不會將企業輸入的數據用于訓練。這種模式為企業提供了更強的數據隱私保障和合規性支持。
選擇開源模型的團隊則需要更加關注 AI 模型生命周期的安全,確保模型能夠按照預期輸出結果,并且具備較強的抗越獄能力,以防止被濫用或攻擊。
3、托管vs自托管:自托管大幅躍升
許多企業都依賴托管 AI 產品(到 2025 年,這一比例將從 70% 增長到 74%),但報告強調,自托管 AI 的采用率大幅上升,同比從 42% 躍升至 75%。這一激增源于嵌入第三方軟件的 AI 功能以及尋求對其 AI 部署進行更大控制的組織。向自托管 AI 的轉變需要強大的治理來保護云環境。
4、安全影響
企業在 AI 采購和部署方面面臨諸多選擇,這也涉及 AI 安全方案的采購。首席信息安全官(CISO)更傾向于選擇能夠在現有架構內運行、無需依賴外部第三方來維護數據隱私的解決方案。同時,CISO 和產品高管希望 AI 安全產品具備可配置性,使團隊能夠針對不同項目定制檢測設置。例如,某些項目可能需要對 PII(個人可識別信息)泄露采取更嚴格的敏感性控制,而另一些項目則需要加強對有害內容的監控。
歸根結底,AI 和模型安全是一個快速發展的領域。CISO、CIO 以及產品和工程負責人普遍強調,AI 安全產品必須具備快速創新能力,以跟上行業發展步伐。首席信息安全官強調,真正的 AI 威脅可能在未來 2~5 年內才會完全顯現,因此,AI 安全產品必須持續應對新興威脅,以確保長期安全性。
四、2025年企業AI開發中的風險與挑戰
根據我們的研究,進入 2025 年后,企業面臨的風險依然嚴峻,尤其是在 DeepSeek 等開源模型出現顯著進展后。在眾多安全框架中,以下三個框架是企業最常用的AI風險分類與評估工具。
1、AI威脅框架
企業面臨的AI風險可以分為兩個主要領域:
2、圍繞 AI 使用、活動和防護措施的安全風險
最近數月,集成Microsoft Copilot、Google Gemini、ServiceNow 和 Salesforce等AI工具的企業遇到重大安全挑戰。
主要問題是權限過高,AI助手訪問的數據超出了必要范圍,導致敏感信息意外泄露。例如,Microsoft Copilot 與 Microsoft 365 的深度集成使其能夠聚合大量組織數據。如果權限管理不善,可能會造成安全漏洞。
以下是截至 2025 年發現的突出風險,主要集中在人工智能的使用、數據暴露和政策違規方面。
五、保障企業自研AI應用全生命周期安全
1、AI 全生命周期安全保障不同于與傳統軟件開發 (SDLC)
確保 AI 全生命周期的安全面臨著與傳統軟件開發不同的獨特挑戰。雖然、靜態應用安全測試 (SAST)、動態應用安全測試 (DAST) 和 API 安全等傳統安全措施仍然適用,但AI 開發與部署流程(AI Pipeline)帶來了額外的復雜性和潛在的盲點。
在不深入探討的情況下,其他包括監控RAG訪問、治理與合規問題以及運行時安全需求。
2、AI開發生命周期分步說明
人工智能(AI)開發生命周期引入了獨特的安全挑戰,需謹慎考量。明確構建和開發AI模型的核心步驟至關重要。
3、開發AI 應用各階段相關的風險
六、現有網絡安全控制措施
目前,企業主要采用三種方法來保護 AI 系統。沒有一種萬能的方法。通常,企業會結合其中2~3種方法來增強 AI 安全性。
1、 模型提供者和自托管解決方案
2、現有的安全控制措施和供應商
3、引入新興 AI 安全供應商
1、模型提供商和自托管解決方案
此類供應商包括 OpenAI、Mistral 和 Meta 等 AI公司。這些企業在 AI 模型的訓練和推理過程中,將安全性、數據隱私和負責任的 AI 保護嵌入到他們的模型中。他們的主要重點仍然是構建最先進、最高效的 AI 模型,而不是優先考慮安全性。因此,許多企業尋求 獨立的安全層,以保護在不同環境下運行的所有 AI 模型。
2、傳統網絡安全防護措施
許多企業已經部署了一定程度的網絡安全措施,以保護數據、網絡和終端設備。研究發現,缺乏專門 AI 安全解決方案的企業通常依賴現有控制措施。然而,這些措施在 AI 安全領域各有優劣,企業需要充分了解其能力和局限性,以制定有效的 AI 安全策略。
1)網絡安全
2)數據防泄漏 (DLP) 和數據安全態勢管理 (DSPM)
數據丟失防護 (DLP) 和數據安全態勢管理 (DSPM)解決方案旨在保護敏感信息免遭未經授權的訪問或泄露。在 AI 系統中,這些工具有助于防止意外或故意泄露個人身份信息 (PII) 或專有業務數據。然而,它們往往無法解決特定于 AI 的威脅,例如通過 API 抓取或分析AI 模型邏輯的復雜性而導致的模型泄露。此外,如果沒有 AI 感知策略,這些工具可能無法有效緩解大型語言模型 (LLM) 特有的風險,例如提示詞泄漏。
3)云安全 (CNAPP 與 CSPM)
由于 AI 模型經常部署在 AWS、GCP 或 Azure 等云平臺上,云原生應用保護平臺 (CNAPP) 和云安全態勢管理 (CSPM) 工具可以識別錯誤配置。許多供應商已開始擴展相關功能,以專門檢測以云為中心的 AI 模型的漏洞。
4)端點檢測和響應 (EDR)
端檢測與響應(EDR)解決方案適用于檢測惡意軟件和傳統端點威脅,但它們通常不會監測AI 模型威脅,例如未經授權的推理嘗試或旨在提取模型功能的 API 抓取活動。
5)應用安全掃描器 (SAST/DAST)
靜態和動態應用安全測試工具能有效評估傳統應用程序的漏洞。然而,它們很難評估 AI 模型行為或評估其抵御對抗性攻擊(Adversarial Attacks)的能力。目前,一些新興供應商正在嘗試彌補這一缺陷。
6)瀏覽器安全
瀏覽器安全措施可以控制 AI 聊天機器人的使用,但它們無助于保護專有 AI 模型本身。這些控制僅限于用戶交互層面,并未擴展到底層 AI 基礎設施。
傳統的安全供應商開始檢測 AI 流量和鄰接領域。一些供應商已開始將 AI 安全防護功能納入其產品中。然而,該領域的創新仍然緩慢,這些供應商尚未提供突破性的 AI 安全功能。此外,由于他們涵蓋了廣泛的安全領域(包括云、網絡和端點安全),AI 安全通常只是其產品組合的一個方面,而不是重點。
3、新興專攻型AI安全解決方案
第三類包括專注于AI安全的新興企業。這些公司大多聚焦于細分領域的挑戰,包括保障AI使用安全,防御提示詞注入攻擊(Prompt Injection Attacks),識別開源大語言模型(LLMs)中的漏洞。從當前分析可見,AI安全需求迫切且覆蓋領域廣泛,其問題集合龐雜多樣,需在快速演進的生態中持續應對。
七、市場解決方案:如何保障 AI 安全
本部分基于市場研究,概述了企業在 AI 安全方面的關鍵需求和防護策略。
以下是典型企業 AI 架構的安全概覽(假設企業未完全依賴封閉源模型和廠商托管環境)。
1、數據與計算層(AI 基礎層安全)。企業需要保護其數據庫、數據湖或云存儲服務(如 AWS S3)中的數據,并可能已經部署向量數據庫。為確保數據安全,應實施嚴格的數據治理,防止未經授權的數據訪問或篡改。
2、AI 模型與推理層(保護 AI 邏輯安全)。企業通常會使用基礎模型(Foundation Models)、微調模型(Fine-Tuned Models)(開源或閉源)、嵌入模型(Embeddings)、推理端點(Inference Endpoints)以及AI 代理工作流(Agentic Workflows),這些可以自托管或部署在公共云上。企業必須保障整個AI生命周期的安全,從構建到運行時。
3、AI 應用和用戶交互層(保護 AI 使用安全):企業通常會采用AI 助理(Copilot)、自主智能體(Autonomous Agents)或聊天機器人(Chatbots)。企業必須保護提示詞安全(Secure Prompting)、實施訪問控制(RBAC)以及內容過濾(Content Filtering),防止 AI 生成不當內容或導致數據泄露。
在上述各個層級中,企業應根據自身的 AI 戰略,在數據與計算層、AI 模型與推理層、AI 應用與用戶界面層選擇一到兩家專業安全供應商,以全面保護 AI 生態系統。
八、SACR 針對安全 AI 部署的建議
1、AI 數據安全控制
強大的 AI 安全策略離不開穩健的數據安全控制,因為 AI 模型的安全性和可信度取決于其訓練和交互的數據。AI 系統引入了與數據訪問、完整性、泄漏和治理相關的新風險,這使得數據安全成為 AI 部署的基礎要素。在《全球生成式AI安全準備報告》中,受訪者(包括首席信息安全官、業務用戶、安全分析師和開發者)將數據隱私和安全視為 AI 采用的主要障礙。
Vanta 的信息與合規經理 Adam Duman 指出,人工智能會讓現有的安全問題更加嚴重。如果公司正在構建 GenAI 應用或 AI智能體,他們會希望使用自己的數據,并會考慮可信度、負責任的輸出和避免偏見。例如,如果一家公司沒有現有的數據治理措施,如數據標記政策,這些問題在 AI 中會變得更加嚴重。
企業在選擇安全供應商時,應重點關注如何在 AI 利用數據之前的每個階段確保數據安全。關鍵措施包括:
2 、AI 預防性控制與治理控制措施
組織應采取主動措施保護人工智能。這些關鍵要素包括:
知名 CISO 觀點:
“為了應對這些風險,企業必須為AI集成零信任架構(ZTA),確保只有經過身份驗證的用戶、應用和工作流可以與AI系統交互(云安全聯盟,2025年)。AI數據治理和合規框架還必須與歐盟AI法案和SEC網絡規則保持一致,以提供透明度和董事會級別的AI風險管理可見性。通過嵌入AI安全設計,企業可以在保持業務敏捷性和創新的同時,滿足監管要求。對于大規模部署AI的企業,主動風險緩解至關重要。實施AI安全物料清單(AI-SBOMs)加強供應鏈安全,而AI紅隊測試則在被利用之前識別漏洞。隨著AI法規的演變,安全領導者必須投資于持續監控、網絡風險量化(CRQ)以及與行業風險管理框架(例如,NIST、ISO/IEC、OECD)合規的一致性,以保持韌性。將AI安全嵌入其核心戰略的組織——”
3、AI運行時安全
企業必須為 AI 模型實施運行時安全,在推理和主動部署期間提供實時保護、監控和威脅響應。運行時安全應利用檢測和響應代理、eBPF 或 SDK 進行實時保護。運行時是 AI 安全的重要組成部分。在題為“潛伏代理:在安全訓練中持續存在的欺騙性 LLM 訓練”的論文中,Anthropic 研究人員展示了帶有后門的模型在訓練和部署中如何故意表現出不同的行為。此類別的 AI 安全供應商可識別帶有隱藏后門的模型,并監控傳入的提示注入或越獄嘗試。這些解決方案還可以檢測重復的 API 請求,這些請求表明存在模型盜竊或其他可疑活動。供應商還應針對基于 API 的 AI 服務實施實時身份驗證。
可觀察性是運行時安全的延伸。目標是讓企業捕獲AI活動的實時日志和監控,例如捕獲推理請求、模型響應和系統日志以進行安全分析。它允許企業在實時中跟蹤訓練進度和AI響應。可觀察性具有兩個關鍵功能:一是幫助團隊改進和調試AI聊天機器人,二是能夠檢測有害或意外的響應——在需要時允許系統拋出異常并提供替代響應。這一領域的AI安全供應商幫助企業有效地調試應用程序和評估響應。從構建到部署的整個生命周期需要持續監督。由于AI的非確定性,即使是強大的安全防護措施也不能保證一致的響應。這些解決方案應與SIEM(安全信息和事件管理)和SOAR(安全編排、自動化和響應)系統集成,以實現實時事件響應和分析。
九、AI 安全市場格局
AI 安全生態系統龐大且充滿挑戰,AI安全供應商可劃分為兩個主要類別。
1、員工 AI 使用安全防護:應對企業員工與大模型交互的風險
這一類別的重點在于防止企業因員工使用 AI 工具而面臨的安全風險,尤其是針對生成式 AI 應用(如 ChatGPT、Claude、Copilot)。該領域的供應商主要致力于:防止數據泄露、阻止未經授權的訪問,以及確保合規性。
其核心功能包括監控 AI 使用情況、實施應用安全策略、內容審核以及AI 專屬數據防泄漏(DLP),以避免員工在 AI 交互過程中暴露敏感信息或使用未經批準的 AI 工具。
這一類別的AI安全供應商提供開箱即用和可定制的政策,用于管理允許通過AI應用程序傳輸的數據。這種方法有時被稱為“AI防火墻”, 可作為數據代理層,控制通過API、瀏覽器或桌面工具傳輸到 AI 應用的數據。
這些供應商還提供治理控制,以確保企業政策在數據和AI應用訓練時得到執行。他們實施基于角色的訪問控制(RBAC),以最大限度地減少企業內部信息的過度共享或不足共享,并對 AI 交互內容進行意圖分類或歸檔,以追蹤員工如何使用 AI 模型。
2、保護 AI 模型安全:確保 AI 全生命周期的安全性
這一類別的重點是 AI 開發全生命周期安全保護,確保模型在開發、部署和運行過程中保持安全,尤其是針對企業自研 AI 應用。主要包括保護數據集、訓練管道和模型免遭篡改, 抵御對抗性攻擊,以及降低 AI 偏見帶來的風險。
該領域的供應商關注AI 供應鏈安全、對抗性機器學習防御、模型水印以及運行時監控(Runtime Monitoring),以檢測AI應用的漏洞。這些解決方案確保模型輸出結果可信、安全,并符合監管的要求。
在該類別中,廠商在以下兩個子領域取得了成功:
1)AI模型全生命周期安全防護(Model Lifecycle):這些廠商專注于從開發到運行時的整個生命周期保護 AI 應用,確保 AI 模型、應用及其底層基礎設施在全生命周期內的安全性。
2?)AI 應用安全防護(AI Application Security Vendors):這些廠商在傳統安全的基礎上,針對 AI 獨有的安全挑戰(如非確定性行為和特殊開發實踐)提供增強保護。例如,MLSecOps(機器學習安全運維)旨在優化 AI 安全運營,確保 AI 應用的安全和合規。
十、全球AI 安全供應商概覽
1、AI 產品全生命周期安全
Palo Alto Networks
ProtectAI
HiddenLayer
Noma
2、AI數據與 AI 供應鏈安全
Pillar Security
TrojAI
3、AI應用& 企業助理安全保護
Prompt Security
Zenity
Witness AI
前述市場概覽展示了各大安全廠商在 AI 安全領域的產品布局,涵蓋了從 AI 開發到運行時保護,再到企業 AI 使用安全防護的全方位解決方案。企業可根據自身 AI 發展策略,選擇合適的 AI 安全產品,以確保 AI 應用的安全性、合規性和可靠性。
十一、AI安全行業現狀評論
AI 安全市場的供應商數量已經超過 50 家,這種快速增長既帶來了機遇,也帶來了挑戰。從積極角度來看,眾多供應商提供了豐富的安全解決方案,讓企業能夠針對模型保護、運行時安全、合規監控等不同需求選擇合適的產品。此外,市場競爭推動創新,促使供應商不斷優化產品,并開發針對新興威脅的專業化解決方案。
市場碎片化也帶來了極大的管理挑戰,尤其是可能成為首席信息安全官(CISO)的噩夢。
隨著市場成熟,供應商整合(并購或關門)可能會成為趨勢,導致小型供應商被收購或倒閉,這可能影響企業已部署的安全方案。企業需要在專業化安全解決方案與供應商穩定性之間找到平衡,同時保持靈活的安全戰略,以適應不斷變化的市場環境。
隨著技術進步,人工智能威脅也在迅速演變。微軟對100 款生成式 AI 產品的紅隊測試研究表明,手動設計的越獄(jailbreak)攻擊在網絡上傳播極快,與復雜的攻擊方法相比,它們為攻擊者提供了更易用、更具成本效益的攻擊向量。
2025年2月,“時空盜賊越獄”(Time Bandit Jailbreak)攻擊成為一大威脅,甚至影響到了OpenAI的GPT-4o 模型。攻擊利用時間線混淆(timeline confusion)和流程歧義(procedural ambiguity)繞過安全防護,使用戶能夠從模型中提取潛在的有害內容。
隨著 AI 能力的擴展,特別是在自主智能體(autonomous agents)和瀏覽器自動化領域的進步,安全風險也等比例增長。微軟在其研究中指出:“任何工具皆可用于善或惡……工具越強大,其帶來的益處或危害就越大。” 這一原則推動微軟開源AI紅隊測試工具 PyRIT 的開發,用于識別 AI 系統中的潛在安全漏洞。
預計成熟的網絡安全公司將利用對AI安全解決方案日益增長的需求,但初創公司仍有競爭的空間。無論未來的創新AI安全解決方案來自成熟網絡安全公司還是新興企業,最終的贏家將是那些能夠持續創新、主動適應新威脅的安全企業。
未來預測
總的來說,這些案例和研究表明,AI 安全并非理論概念——現實中已經發生了從意外數據泄露到 AI 系統漏洞被利用等各種安全事件。幸運的是,在正確實施的情況下,AI 安全解決方案可以有效降低這些風險。同時,市場上也涌現了大量應對這些挑戰的供應商和解決方案。
要有效防御這些威脅,企業必須實施貫穿 AI 全生命周期的安全措施——從數據收集、模型訓練到部署和監控,確保每個環節都得到充分保護。
展望未來,隨著企業不斷分享經驗、以及行業標準持續演進,AI 安全解決方案的有效性將進一步提升。市場正朝著一個方向發展:AI 在部署時就具備內置的安全性、隱私性和可信性,而不是事后補救。
附錄- AI安全產業圖譜
展示生成式 AI 攻擊面及其全生命周期的AI安全供應商。
關 于 作 者
Software Analyst Cyber Research(SACR):專注于網絡安全行業分析的機構,致力于為安全領域的領導者提供深入的行業動態分析和洞察。