压在透明的玻璃上c-国产精品国产一级A片精品免费-国产精品视频网-成人黄网站18秘 免费看|www.tcsft.com

開源人工智能治理的全球實踐及路徑選擇

自DeepSeek系列模型發布以來,我國的開源模型能力大幅提高,逐步趕上以OpenAI旗下的GPT-o1為代表的閉源模型。以開源模型為核心的開源人工智能(Open Source AI)開放了模型權重、訓練數據、工程方法和微調策略,降低了人工智能大模型后續部署和應用的門檻,推動了人工智能技術的快速擴散。圍繞開源人工智能形成的模型分發、組件開發、應用研發和服務提供的有機生態,使人工智能技術更加普惠、利用更加便捷,推動開源成為人工智能高質量發展的基本要求。然而,開源人工智能在研發和應用過程中也伴隨風險。開源本身的不可逆性,以及人工智能技術擴散的動態性,增加了開源人工智能被濫用或誤用的可能性。因此,必須根據開源人工智能的風險特點和技術擴散特征進行針對性的治理,通過能力建設提高開源人工智能的安全性,并通過負責任的應用生態建設提高開源人工智能的可控性。開源人工智能治理需要在包容創新和管控風險之間取得平衡。本文借鑒歐盟、美國和國際組織對開源人工智能的治理經驗,為我國開源人工智能的有序發展、利用開源人工智能推動前沿科技創新和構建負責任的開源人工智能生態體系提供參考。

一、開源人工智能治理的國際經驗

開源人工智能在降低技術開發和使用門檻、促進資源和能力的普惠、推動知識傳播和積累,以及為科學基礎研究和產業化應用提供多樣性等方面,展現出不可替代的價值。同時,各利益相關方也擔心開源人工智能是否會導致安全風險的更快擴散,帶來負面社會效果,并對應采取何種治理方案進行有效防控。

整體看,排除風險評價標準差異化等因素,開源人工智能并未帶來比閉源人工智能或其他現有技術更多的風險??紤]到開源能降低使用門檻,使人工智能技術更加普及,開源人工智能生態的濫用誤用情況可能會增多。由于風險的不可逆和生態的復雜性,針對閉源人工智能的事前源頭管控模式并不適用于開源人工智能的風險管理。一方面,人工智能在開源之后難以完全回溯為封閉形態,無法通過下架或召回等傳統手段進行技術管理,即便從源頭上刪除也無法徹底阻斷其傳播和使用。此外,人工智能一經開源發布即保持基礎能力相對固定,除非開源方迭代另一新版本模型,原版本難以通過開源方的直接修改或社區開發者的參與進行及時修復和優化。另一方面,開源人工智能的安全風險并非模型開發和應用的初衷,安全危害的發生涉及復雜的上下游生態鏈。下游各類跨領域、跨場景甚至跨國界的應用主體間相互關聯、相互依存。模型只是生態系統中的一環,而非唯一的風險源。

基于開源人工智能的價值發揮與風險特征,歐盟、美國和國際組織都嘗試人工智能開源治理機制的變革,且在路徑選擇上各有側重。歐盟以“事前風險全域防控+開源豁免除外”實現利益平衡;美國則強調基于“增量風險”原則的責任分層和多方共治;國際組織則嘗試從定義層面劃定開源邊界,維護自由宗旨。

(一)歐盟的開源人工智能治理機制

歐盟通過綜合性法案,首先確立了對人工智能全域風險的事前管控,并設置例外豁免機制,實現對開源人工智能的監管放松。

歐盟《人工智能法案》以事前風險防御為核心,旨在通過統一的綜合性立法,識別并囊括幾乎所有人工智能可能存在的額外風險或單獨風險。在法案的制定過程中,歐洲議會于2023年6月14日采納了歐盟委員會關于人工智能開源的修訂意見,考慮到開源模式在軟件時代體現的經濟價值和有效促進技術創新的價值,應專門針對開源人工智能進行單獨定義,并設置“開源豁免+豁免除外”規則機制。該機制要求將開源人工智能納入法律規制之后,再進行利益平衡考量。根據最終生效法案,相關條款(如“鑒于條款”第89、102、103、104條)規定,對符合定義要求的開源人工智能模型,如果其參數、架構信息和使用信息公開透明,則可免除部分透明度和問責相關的義務要求。歐盟《人工智能法案》通過開源協議定義前述符合要求的開源人工智能。具體而言,當使用的開源許可允許用戶運行、復制、分發、研究、修改和改進軟件及模型,并要求尊重原始模型提供者的署名權、遵守相同或類似的分發條款時,該許可應被視為符合要求的開源許可,只有此類開源許可的開源人工智能才能享受豁免。

根據歐盟《人工智能法案》第2、25、53條等相關條款的規定,在為人工智能開源提供責任免除的同時,也設置了“豁免除外”,具體包括以下幾個方面:一是版權合規除外,即規定免除的義務中涉及文本和數據挖掘的版權合規性義務不能因開源被豁免;二是透明度除外,模型以開源方式發布不能直接豁免透明度的基本義務,仍需制定和提供關于模型訓練所使用內容的概要,幫助外界了解模型開發所依賴的數據概況;三是系統性風險和被禁止的人工智能除外,即如果開源的通用人工智能模型被認定達到高影響力閾值,存在系統性風險,則仍須遵守法案相關義務;對法案第5條規定的“禁止的人工智能實踐”(如利用人工智能進行人類潛意識操縱與欺騙、利用或針對特定弱勢群體、對個人或群體進行社會評分系統、犯罪預測、無目標面部數據抓取、情緒推斷等),開源豁免不適用;四是商業利益除外,即如果人工智能模型及其他組件并非完全免費提供,而是存在任何形式的商業化利益(如通過技術支援、附加服務收費,或利用個人數據,且目的不僅限于提升軟件的安全性、兼容性或互操作性),這些模型和組件就不享有開源人工智能的特殊豁免政策。

(二)美國的開源人工智能治理機制

2024年2月,美國商務部國家電信和信息管理局(NTIA)正式啟動了一項針對開源人工智能治理的公共咨詢流程,并于7月底發布正式報告。根據報告,美國強調基于“增量風險”原則理性認知人工智能開源的風險,并根據利益平衡機制審慎制定監管措施。美國主張目前不需要針對開源人工智能進行額外的單獨治理,而是應構建一個符合技術發展特征的敏捷治理框架,通過協同共治和治理能力的提升,實現對風險的長效管理。

現有的“提供者-使用者”二分機制過度強調模型研發者的責任,且無法涵蓋開源人工智能生態中上下游各方的參與者。因此,現有的責任機制不符合開源人工智能的生態特征,無法基于各類參與者的角色合理地界定責任,導致作為底層技術支持方的云服務提供商和模型研發者實際上承擔了過多的兜底責任。對此,美國國家標準與技術研究院(NIST)于2025年1月發布《雙用途基礎模型濫用風險管理指南》(NIST AI 800-1),提出了一套適應“云+開源模型”生態的責任分層治理框架。該框架明確指出,開源模型的風險不應僅由模型研發方承擔,模型應用生態的各類直接參與方(包括云計算提供方、模型托管平臺、下游模型使用者和應用開發者、分發平臺、三方評測審計方、用戶等)以及間接參與方(如學術機構、外部研究者和政府機構等)都需要根據自身角色承擔相應責任。多方合作和協同治理能夠有效管控模型應用風險,并通過負責任的生態機制建設管控開源人工智能的濫用誤用風險。

在州立法方面,美國曾進行過較嚴格的開源人工智能監管立法嘗試。例如,加利福尼亞州曾于2024年提出《安全與可靠前沿人工智能創新法案》(SB1047),對模型開發者提出了系統性風險防范措施和嚴格的責任分配方案。一方面,法案設立了連帶責任機制,要求模型開發者對下游濫用行為(如非法應用或微調)承擔相應的法律責任,或面臨民事處罰甚至模型被強制關閉的風險;另一方面,法案要求所有符合要求的模型須進行安全測試、提交年度報告,并接受第三方審計。這些規定同樣適用于開源模型。然而,該法案也被批評缺乏對技術和能力的實證科學分析,并過度夸大了人工智能領域的風險,可能以犧牲技術創新為代價,損害公共利益。最終,該法案在通過地方立法機構后被該州州長否決,未能正式生效。

(三)國際組織的開源人工智能治理機制

除了各國開展的開源人工智能治理外,長期致力于開源治理的專門機構也提出了相關治理方案。

開放源代碼促進會(OSI)嘗試對開源人工智能進行定義。定義開源人工智能面臨較大困難:一方面,開源人工智能具有新穎性,開源模型與開源軟件在開發方式、構成要件、部署應用等多個方面均呈現不同,因此,基于舊有的軟件開源定義無法直接套用于開源人工智能;另一方面,開源人工智能尚處于動態發展階段,呈現出較強的復雜性、動態性和不確定性,人工智能模型的開閉源界限模糊且動態演變,靜態定義難以跟上技術的迭代更新。

在這一背景下,OSI于2024年10月推出了開源人工智能定義的第一代版本(OSAID)。該版本包含三個主要部分:一是“前言”,解釋了為什么需要開源人工智能,認為“對于人工智能,至少需要與開源相同的基本自由”,確保人工智能開發者、部署者和最終用戶能夠享受開源所帶來的自主性、透明度、無阻礙使用和協作改進等好處;二是“定義的主體內容”,解釋了構成開源人工智能的前提條件,包括原則和構成要件兩大部分。原則部分提出四大“自由”,即無需征得許可并用于任何目的的使用自由、探究系統工作原理并檢查其組件的研究自由、允許人們為任何目的修改系統的自由、無論是否經過修改可出于任何目的共享給他人的自由,同時明確指出對系統整體和各獨立的組成要素的要求須一致。獨立組成要素包括數據信息、代碼和參數三個要素,并對每個要素都進行了相應的舉例;三是“名詞解釋”,解釋了開源人工智能相關部分特有技術名詞,闡明了開源模型、開源權重、人工智能系統和機器學習等核心組件,區別于傳統軟件開源的特有技術內容。

總體上看,OSI的定義延續了傳統開源軟件的定義思路,將開源人工智能的目標聚焦如何賦予使用者以盡可能無限制的“自由”,以便構建和部署開源人工智能系統。OSI明確提出,進行開源人工智能定義的主要目標是認識到“將目前的傳統開源軟件代碼和許可證原則應用于人工智能組件時,已不足以保證使用、研究、分享和修改系統的自由”。這一考慮貫穿了整個OSAID的制定過程:自2023年7月第一次召開針對OSAID的會議討論以來,OSI強調“開源旨在讓用戶擁有軟件自主權”,而開源人工智能也應旨在讓用戶在使用人工智能系統時擁有這種自主權。此外,在11輪的定義版本更新中,唯一沒有大幅變動的便是前言中關于四大“自由”的要求。

二、“嚴格定義-總體控制-局部豁免”與人工智能開源不適配

從政策制定角度看,OSI的開源人工智能定義和歐盟《人工智能法案》的開源豁免機制,本質上并未認可開源人工智能是一種技術創新和擴散的路徑。它們沒有從順應技術發展的角度重構治理制度,而是把傳統法律框架置于技術發展規律之上,通過嚴格定義將開源人工智能視為一種獨立的、靜態的監管對象,采取“削足適履”的方式將其納入現有的監管體系。當法案通過“符合開源條件即可免除合規義務”作為激勵工具時,其隱含的前提是現有監管框架的核心邏輯無須調整,只須將開源視為可控的“例外空間”。這一預設折射出立法者在應對技術變革時的路徑依賴,試圖通過局部豁免緩解制度與創新的沖突,而非重構治理范式適應開源生態的獨特性?!皣栏穸x-總體控制-局部豁免”的矛盾在于,它與開源生態的自組織特點難以兼容。

從定義角度,開源生態是“能力建設”而非“產品服務”。與傳統軟件開源強調的“自由使用、復制、修改、分發源碼”不同,模型開源應更強調降低大模型的使用門檻,實現模型能力的普惠,讓更多人能夠使用人工智能技術,并參與人工智能技術的開發、應用和推廣過程。然而,OSI堅持以“自由”為核心的傳統軟件開源原則,并未充分體現模型開源與軟件開源在目標價值上的本質區別。雖然在多輪迭代中,OSI也吸納了一部分產業觀點,從嚴格要求可復現性和不允許開源協議施加任何使用限制,逐漸轉變為承認百分百的可復現并非開源人工智能的目標,并不再明確反對使用限制,但該定義仍然過于嚴苛,并非所有的開發者都有充足的資源和能力提供OSI要求的所有組件并達到相應的效果,進而滿足他人研究、修改、使用和分發的自由。這種嚴格定義可能存在矯枉過正的風險,降低模型開源貢獻參與的積極性,從而偏離模型開源以“可用性”為核心的價值所在。

從風險管控角度看,開源的分布式協作形成了一種新型的風險控制生態。通過廣泛的開發者和參與者的自律自治和內生規則,能夠實現動態的利益平衡和默認的規則遵循。這種方式比靜態合規更能適應人工智能技術的進化速度。例如,目前對人工智能安全的研究絕大部分基于開源人工智能,推動了人工智能安全技術的發展,也讓人工智能總體的安全性不斷提高。同時,開源生態的專業開發者相互監督,人工智能安全評測的可信度更高,也更容易發現和修復安全漏洞。更充分且對稱的安全信息提高了開源人工智能的透明度,可以提前發現風險、群策群力并及時進行風險處置。

三、構建適配開源人工智能特征的治理機制

隨著人工智能從研發走向應用,在技術存在高度不確定性、產業應用需求多樣化的背景下,社會可獲取的模型、工具以及技術解決方案的選擇應盡可能多樣。對開源人工智能實行較寬松的監管政策,并非放任風險,而是從技術工具的視角重新審視人工智能開源的價值,采用生態建設的方式管控風險并分配責任??紤]到開源對我國人工智能高質量發展的重要作用,以及人工智能開源帶來的客觀風險特征,本文對我國開源人工智能治理提出以下建議。

第一,尊重開源生態的自組織性,包容人工智能開源的多樣性。賈開曾在《人工智能爭議之一:開源是發展AI的合適路徑嗎?——從經濟民主視角理解開源在AI時代的挑戰與革新》一文中提出,開源人工智能的有序發展依賴開源生態的自演進和自組織性,單純依賴傳統的合規豁免規制反而無法適配生態自然發展的規律。鼓勵開源人工智能的最終目標是降低全社會獲取、使用和改進人工智能技術的綜合成本,從而實現技術的廣泛擴散和公共知識的積累。因此,政策評判標準應轉換為多樣化的視角,判斷開源人工智能能否更充分地且負責任地被使用,政策重心應從監管開源轉向降低開源技術流動的阻力,保障市場與社區選擇的自主權和公平性,將治理資源用于提高算力接入公平性、接口協議標準化和知識共享可持續性等開源基礎設施建設。

第二,提高開源人工智能的專業評價和反饋,推動“眾人拾柴火焰高”的正向循環。與開源軟件開發過程中共同改代碼、實時反饋的方式實現技術進步不同,開源人工智能的階段式訓練模式對評價和反饋的專業性和體系性要求較高,需要在較短時間內將開源人工智能應用于多樣化的場景,評估人工智能的性能,測試人工智能的安全。對于開源人工智能而言,專業化的用戶越多,經驗反饋和交流得越豐富,才能更好地構建起圍繞技術建立的生態,開源對技術和產業助益才能充分體現。開源人工智能需要鼓勵普惠,包括更多強調使用成本的降低、提供更具多樣性的技術路線和選擇方案,以及在合法性和價值對齊方面的透明度等。通過不斷提高開發者和使用者的專業度水平,推動開源人工智能持續創新和發展。

第三,推動公共知識的積累,提高開源人工智能生態治理的確定性。開源人工智能治理的目標不僅是防范風險,還需要為技術的負責任發展提供可操作、可借鑒的實施路徑,通過促進合作和增進公共知識提高治理的確定性。同時,堅持“人工智能安全作為公共產品”的基本理念,注重信息共享和披露,支持開放透明的人工智能研發與應用,鼓勵學術機構、開源社區和公眾用戶進行監督,根據各個主體在開源人工智能生態的角色進行責任設定,為負責任的開源人工智能提供更多的確定性。

(本文刊登于《中國信息安全》雜志2025年第2期)

聲明:本文來自中國信息安全,稿件和圖片版權均歸原作者所有。所涉觀點不代表東方安全立場,轉載目的在于傳遞更多信息。如有侵權,請聯系rhliu@skdlabs.com,我們將及時按原作者或權利人的意愿予以更正。

上一篇:密碼學中的量子隱形傳態:通過量子力學開啟安全通信之門

下一篇:開源郵件系統RoundCube漏洞遭利用:竊密器數據如何濫用CVE-2025-49113