压在透明的玻璃上c-国产精品国产一级A片精品免费-国产精品视频网-成人黄网站18秘 免费看|www.tcsft.com

開源人工智能治理的全球實踐及路徑選擇

自DeepSeek系列模型發(fā)布以來,我國的開源模型能力大幅提高,逐步趕上以OpenAI旗下的GPT-o1為代表的閉源模型。以開源模型為核心的開源人工智能(Open Source AI)開放了模型權重、訓練數(shù)據(jù)、工程方法和微調策略,降低了人工智能大模型后續(xù)部署和應用的門檻,推動了人工智能技術的快速擴散。圍繞開源人工智能形成的模型分發(fā)、組件開發(fā)、應用研發(fā)和服務提供的有機生態(tài),使人工智能技術更加普惠、利用更加便捷,推動開源成為人工智能高質量發(fā)展的基本要求。然而,開源人工智能在研發(fā)和應用過程中也伴隨風險。開源本身的不可逆性,以及人工智能技術擴散的動態(tài)性,增加了開源人工智能被濫用或誤用的可能性。因此,必須根據(jù)開源人工智能的風險特點和技術擴散特征進行針對性的治理,通過能力建設提高開源人工智能的安全性,并通過負責任的應用生態(tài)建設提高開源人工智能的可控性。開源人工智能治理需要在包容創(chuàng)新和管控風險之間取得平衡。本文借鑒歐盟、美國和國際組織對開源人工智能的治理經(jīng)驗,為我國開源人工智能的有序發(fā)展、利用開源人工智能推動前沿科技創(chuàng)新和構建負責任的開源人工智能生態(tài)體系提供參考。

一、開源人工智能治理的國際經(jīng)驗

開源人工智能在降低技術開發(fā)和使用門檻、促進資源和能力的普惠、推動知識傳播和積累,以及為科學基礎研究和產(chǎn)業(yè)化應用提供多樣性等方面,展現(xiàn)出不可替代的價值。同時,各利益相關方也擔心開源人工智能是否會導致安全風險的更快擴散,帶來負面社會效果,并對應采取何種治理方案進行有效防控。

整體看,排除風險評價標準差異化等因素,開源人工智能并未帶來比閉源人工智能或其他現(xiàn)有技術更多的風險。考慮到開源能降低使用門檻,使人工智能技術更加普及,開源人工智能生態(tài)的濫用誤用情況可能會增多。由于風險的不可逆和生態(tài)的復雜性,針對閉源人工智能的事前源頭管控模式并不適用于開源人工智能的風險管理。一方面,人工智能在開源之后難以完全回溯為封閉形態(tài),無法通過下架或召回等傳統(tǒng)手段進行技術管理,即便從源頭上刪除也無法徹底阻斷其傳播和使用。此外,人工智能一經(jīng)開源發(fā)布即保持基礎能力相對固定,除非開源方迭代另一新版本模型,原版本難以通過開源方的直接修改或社區(qū)開發(fā)者的參與進行及時修復和優(yōu)化。另一方面,開源人工智能的安全風險并非模型開發(fā)和應用的初衷,安全危害的發(fā)生涉及復雜的上下游生態(tài)鏈。下游各類跨領域、跨場景甚至跨國界的應用主體間相互關聯(lián)、相互依存。模型只是生態(tài)系統(tǒng)中的一環(huán),而非唯一的風險源。

基于開源人工智能的價值發(fā)揮與風險特征,歐盟、美國和國際組織都嘗試人工智能開源治理機制的變革,且在路徑選擇上各有側重。歐盟以“事前風險全域防控+開源豁免除外”實現(xiàn)利益平衡;美國則強調基于“增量風險”原則的責任分層和多方共治;國際組織則嘗試從定義層面劃定開源邊界,維護自由宗旨。

(一)歐盟的開源人工智能治理機制

歐盟通過綜合性法案,首先確立了對人工智能全域風險的事前管控,并設置例外豁免機制,實現(xiàn)對開源人工智能的監(jiān)管放松。

歐盟《人工智能法案》以事前風險防御為核心,旨在通過統(tǒng)一的綜合性立法,識別并囊括幾乎所有人工智能可能存在的額外風險或單獨風險。在法案的制定過程中,歐洲議會于2023年6月14日采納了歐盟委員會關于人工智能開源的修訂意見,考慮到開源模式在軟件時代體現(xiàn)的經(jīng)濟價值和有效促進技術創(chuàng)新的價值,應專門針對開源人工智能進行單獨定義,并設置“開源豁免+豁免除外”規(guī)則機制。該機制要求將開源人工智能納入法律規(guī)制之后,再進行利益平衡考量。根據(jù)最終生效法案,相關條款(如“鑒于條款”第89、102、103、104條)規(guī)定,對符合定義要求的開源人工智能模型,如果其參數(shù)、架構信息和使用信息公開透明,則可免除部分透明度和問責相關的義務要求。歐盟《人工智能法案》通過開源協(xié)議定義前述符合要求的開源人工智能。具體而言,當使用的開源許可允許用戶運行、復制、分發(fā)、研究、修改和改進軟件及模型,并要求尊重原始模型提供者的署名權、遵守相同或類似的分發(fā)條款時,該許可應被視為符合要求的開源許可,只有此類開源許可的開源人工智能才能享受豁免。

根據(jù)歐盟《人工智能法案》第2、25、53條等相關條款的規(guī)定,在為人工智能開源提供責任免除的同時,也設置了“豁免除外”,具體包括以下幾個方面:一是版權合規(guī)除外,即規(guī)定免除的義務中涉及文本和數(shù)據(jù)挖掘的版權合規(guī)性義務不能因開源被豁免;二是透明度除外,模型以開源方式發(fā)布不能直接豁免透明度的基本義務,仍需制定和提供關于模型訓練所使用內容的概要,幫助外界了解模型開發(fā)所依賴的數(shù)據(jù)概況;三是系統(tǒng)性風險和被禁止的人工智能除外,即如果開源的通用人工智能模型被認定達到高影響力閾值,存在系統(tǒng)性風險,則仍須遵守法案相關義務;對法案第5條規(guī)定的“禁止的人工智能實踐”(如利用人工智能進行人類潛意識操縱與欺騙、利用或針對特定弱勢群體、對個人或群體進行社會評分系統(tǒng)、犯罪預測、無目標面部數(shù)據(jù)抓取、情緒推斷等),開源豁免不適用;四是商業(yè)利益除外,即如果人工智能模型及其他組件并非完全免費提供,而是存在任何形式的商業(yè)化利益(如通過技術支援、附加服務收費,或利用個人數(shù)據(jù),且目的不僅限于提升軟件的安全性、兼容性或互操作性),這些模型和組件就不享有開源人工智能的特殊豁免政策。

(二)美國的開源人工智能治理機制

2024年2月,美國商務部國家電信和信息管理局(NTIA)正式啟動了一項針對開源人工智能治理的公共咨詢流程,并于7月底發(fā)布正式報告。根據(jù)報告,美國強調基于“增量風險”原則理性認知人工智能開源的風險,并根據(jù)利益平衡機制審慎制定監(jiān)管措施。美國主張目前不需要針對開源人工智能進行額外的單獨治理,而是應構建一個符合技術發(fā)展特征的敏捷治理框架,通過協(xié)同共治和治理能力的提升,實現(xiàn)對風險的長效管理。

現(xiàn)有的“提供者-使用者”二分機制過度強調模型研發(fā)者的責任,且無法涵蓋開源人工智能生態(tài)中上下游各方的參與者。因此,現(xiàn)有的責任機制不符合開源人工智能的生態(tài)特征,無法基于各類參與者的角色合理地界定責任,導致作為底層技術支持方的云服務提供商和模型研發(fā)者實際上承擔了過多的兜底責任。對此,美國國家標準與技術研究院(NIST)于2025年1月發(fā)布《雙用途基礎模型濫用風險管理指南》(NIST AI 800-1),提出了一套適應“云+開源模型”生態(tài)的責任分層治理框架。該框架明確指出,開源模型的風險不應僅由模型研發(fā)方承擔,模型應用生態(tài)的各類直接參與方(包括云計算提供方、模型托管平臺、下游模型使用者和應用開發(fā)者、分發(fā)平臺、三方評測審計方、用戶等)以及間接參與方(如學術機構、外部研究者和政府機構等)都需要根據(jù)自身角色承擔相應責任。多方合作和協(xié)同治理能夠有效管控模型應用風險,并通過負責任的生態(tài)機制建設管控開源人工智能的濫用誤用風險。

在州立法方面,美國曾進行過較嚴格的開源人工智能監(jiān)管立法嘗試。例如,加利福尼亞州曾于2024年提出《安全與可靠前沿人工智能創(chuàng)新法案》(SB1047),對模型開發(fā)者提出了系統(tǒng)性風險防范措施和嚴格的責任分配方案。一方面,法案設立了連帶責任機制,要求模型開發(fā)者對下游濫用行為(如非法應用或微調)承擔相應的法律責任,或面臨民事處罰甚至模型被強制關閉的風險;另一方面,法案要求所有符合要求的模型須進行安全測試、提交年度報告,并接受第三方審計。這些規(guī)定同樣適用于開源模型。然而,該法案也被批評缺乏對技術和能力的實證科學分析,并過度夸大了人工智能領域的風險,可能以犧牲技術創(chuàng)新為代價,損害公共利益。最終,該法案在通過地方立法機構后被該州州長否決,未能正式生效。

(三)國際組織的開源人工智能治理機制

除了各國開展的開源人工智能治理外,長期致力于開源治理的專門機構也提出了相關治理方案。

開放源代碼促進會(OSI)嘗試對開源人工智能進行定義。定義開源人工智能面臨較大困難:一方面,開源人工智能具有新穎性,開源模型與開源軟件在開發(fā)方式、構成要件、部署應用等多個方面均呈現(xiàn)不同,因此,基于舊有的軟件開源定義無法直接套用于開源人工智能;另一方面,開源人工智能尚處于動態(tài)發(fā)展階段,呈現(xiàn)出較強的復雜性、動態(tài)性和不確定性,人工智能模型的開閉源界限模糊且動態(tài)演變,靜態(tài)定義難以跟上技術的迭代更新。

在這一背景下,OSI于2024年10月推出了開源人工智能定義的第一代版本(OSAID)。該版本包含三個主要部分:一是“前言”,解釋了為什么需要開源人工智能,認為“對于人工智能,至少需要與開源相同的基本自由”,確保人工智能開發(fā)者、部署者和最終用戶能夠享受開源所帶來的自主性、透明度、無阻礙使用和協(xié)作改進等好處;二是“定義的主體內容”,解釋了構成開源人工智能的前提條件,包括原則和構成要件兩大部分。原則部分提出四大“自由”,即無需征得許可并用于任何目的的使用自由、探究系統(tǒng)工作原理并檢查其組件的研究自由、允許人們?yōu)槿魏文康男薷南到y(tǒng)的自由、無論是否經(jīng)過修改可出于任何目的共享給他人的自由,同時明確指出對系統(tǒng)整體和各獨立的組成要素的要求須一致。獨立組成要素包括數(shù)據(jù)信息、代碼和參數(shù)三個要素,并對每個要素都進行了相應的舉例;三是“名詞解釋”,解釋了開源人工智能相關部分特有技術名詞,闡明了開源模型、開源權重、人工智能系統(tǒng)和機器學習等核心組件,區(qū)別于傳統(tǒng)軟件開源的特有技術內容。

總體上看,OSI的定義延續(xù)了傳統(tǒng)開源軟件的定義思路,將開源人工智能的目標聚焦如何賦予使用者以盡可能無限制的“自由”,以便構建和部署開源人工智能系統(tǒng)。OSI明確提出,進行開源人工智能定義的主要目標是認識到“將目前的傳統(tǒng)開源軟件代碼和許可證原則應用于人工智能組件時,已不足以保證使用、研究、分享和修改系統(tǒng)的自由”。這一考慮貫穿了整個OSAID的制定過程:自2023年7月第一次召開針對OSAID的會議討論以來,OSI強調“開源旨在讓用戶擁有軟件自主權”,而開源人工智能也應旨在讓用戶在使用人工智能系統(tǒng)時擁有這種自主權。此外,在11輪的定義版本更新中,唯一沒有大幅變動的便是前言中關于四大“自由”的要求。

二、“嚴格定義-總體控制-局部豁免”與人工智能開源不適配

從政策制定角度看,OSI的開源人工智能定義和歐盟《人工智能法案》的開源豁免機制,本質上并未認可開源人工智能是一種技術創(chuàng)新和擴散的路徑。它們沒有從順應技術發(fā)展的角度重構治理制度,而是把傳統(tǒng)法律框架置于技術發(fā)展規(guī)律之上,通過嚴格定義將開源人工智能視為一種獨立的、靜態(tài)的監(jiān)管對象,采取“削足適履”的方式將其納入現(xiàn)有的監(jiān)管體系。當法案通過“符合開源條件即可免除合規(guī)義務”作為激勵工具時,其隱含的前提是現(xiàn)有監(jiān)管框架的核心邏輯無須調整,只須將開源視為可控的“例外空間”。這一預設折射出立法者在應對技術變革時的路徑依賴,試圖通過局部豁免緩解制度與創(chuàng)新的沖突,而非重構治理范式適應開源生態(tài)的獨特性。“嚴格定義-總體控制-局部豁免”的矛盾在于,它與開源生態(tài)的自組織特點難以兼容。

從定義角度,開源生態(tài)是“能力建設”而非“產(chǎn)品服務”。與傳統(tǒng)軟件開源強調的“自由使用、復制、修改、分發(fā)源碼”不同,模型開源應更強調降低大模型的使用門檻,實現(xiàn)模型能力的普惠,讓更多人能夠使用人工智能技術,并參與人工智能技術的開發(fā)、應用和推廣過程。然而,OSI堅持以“自由”為核心的傳統(tǒng)軟件開源原則,并未充分體現(xiàn)模型開源與軟件開源在目標價值上的本質區(qū)別。雖然在多輪迭代中,OSI也吸納了一部分產(chǎn)業(yè)觀點,從嚴格要求可復現(xiàn)性和不允許開源協(xié)議施加任何使用限制,逐漸轉變?yōu)槌姓J百分百的可復現(xiàn)并非開源人工智能的目標,并不再明確反對使用限制,但該定義仍然過于嚴苛,并非所有的開發(fā)者都有充足的資源和能力提供OSI要求的所有組件并達到相應的效果,進而滿足他人研究、修改、使用和分發(fā)的自由。這種嚴格定義可能存在矯枉過正的風險,降低模型開源貢獻參與的積極性,從而偏離模型開源以“可用性”為核心的價值所在。

從風險管控角度看,開源的分布式協(xié)作形成了一種新型的風險控制生態(tài)。通過廣泛的開發(fā)者和參與者的自律自治和內生規(guī)則,能夠實現(xiàn)動態(tài)的利益平衡和默認的規(guī)則遵循。這種方式比靜態(tài)合規(guī)更能適應人工智能技術的進化速度。例如,目前對人工智能安全的研究絕大部分基于開源人工智能,推動了人工智能安全技術的發(fā)展,也讓人工智能總體的安全性不斷提高。同時,開源生態(tài)的專業(yè)開發(fā)者相互監(jiān)督,人工智能安全評測的可信度更高,也更容易發(fā)現(xiàn)和修復安全漏洞。更充分且對稱的安全信息提高了開源人工智能的透明度,可以提前發(fā)現(xiàn)風險、群策群力并及時進行風險處置。

三、構建適配開源人工智能特征的治理機制

隨著人工智能從研發(fā)走向應用,在技術存在高度不確定性、產(chǎn)業(yè)應用需求多樣化的背景下,社會可獲取的模型、工具以及技術解決方案的選擇應盡可能多樣。對開源人工智能實行較寬松的監(jiān)管政策,并非放任風險,而是從技術工具的視角重新審視人工智能開源的價值,采用生態(tài)建設的方式管控風險并分配責任。考慮到開源對我國人工智能高質量發(fā)展的重要作用,以及人工智能開源帶來的客觀風險特征,本文對我國開源人工智能治理提出以下建議。

第一,尊重開源生態(tài)的自組織性,包容人工智能開源的多樣性。賈開曾在《人工智能爭議之一:開源是發(fā)展AI的合適路徑嗎?——從經(jīng)濟民主視角理解開源在AI時代的挑戰(zhàn)與革新》一文中提出,開源人工智能的有序發(fā)展依賴開源生態(tài)的自演進和自組織性,單純依賴傳統(tǒng)的合規(guī)豁免規(guī)制反而無法適配生態(tài)自然發(fā)展的規(guī)律。鼓勵開源人工智能的最終目標是降低全社會獲取、使用和改進人工智能技術的綜合成本,從而實現(xiàn)技術的廣泛擴散和公共知識的積累。因此,政策評判標準應轉換為多樣化的視角,判斷開源人工智能能否更充分地且負責任地被使用,政策重心應從監(jiān)管開源轉向降低開源技術流動的阻力,保障市場與社區(qū)選擇的自主權和公平性,將治理資源用于提高算力接入公平性、接口協(xié)議標準化和知識共享可持續(xù)性等開源基礎設施建設。

第二,提高開源人工智能的專業(yè)評價和反饋,推動“眾人拾柴火焰高”的正向循環(huán)。與開源軟件開發(fā)過程中共同改代碼、實時反饋的方式實現(xiàn)技術進步不同,開源人工智能的階段式訓練模式對評價和反饋的專業(yè)性和體系性要求較高,需要在較短時間內將開源人工智能應用于多樣化的場景,評估人工智能的性能,測試人工智能的安全。對于開源人工智能而言,專業(yè)化的用戶越多,經(jīng)驗反饋和交流得越豐富,才能更好地構建起圍繞技術建立的生態(tài),開源對技術和產(chǎn)業(yè)助益才能充分體現(xiàn)。開源人工智能需要鼓勵普惠,包括更多強調使用成本的降低、提供更具多樣性的技術路線和選擇方案,以及在合法性和價值對齊方面的透明度等。通過不斷提高開發(fā)者和使用者的專業(yè)度水平,推動開源人工智能持續(xù)創(chuàng)新和發(fā)展。

第三,推動公共知識的積累,提高開源人工智能生態(tài)治理的確定性。開源人工智能治理的目標不僅是防范風險,還需要為技術的負責任發(fā)展提供可操作、可借鑒的實施路徑,通過促進合作和增進公共知識提高治理的確定性。同時,堅持“人工智能安全作為公共產(chǎn)品”的基本理念,注重信息共享和披露,支持開放透明的人工智能研發(fā)與應用,鼓勵學術機構、開源社區(qū)和公眾用戶進行監(jiān)督,根據(jù)各個主體在開源人工智能生態(tài)的角色進行責任設定,為負責任的開源人工智能提供更多的確定性。

(本文刊登于《中國信息安全》雜志2025年第2期)

聲明:本文來自中國信息安全,稿件和圖片版權均歸原作者所有。所涉觀點不代表東方安全立場,轉載目的在于傳遞更多信息。如有侵權,請聯(lián)系rhliu@skdlabs.com,我們將及時按原作者或權利人的意愿予以更正。

上一篇:密碼學中的量子隱形傳態(tài):通過量子力學開啟安全通信之門

下一篇:開源郵件系統(tǒng)RoundCube漏洞遭利用:竊密器數(shù)據(jù)如何濫用CVE-2025-49113