压在透明的玻璃上c-国产精品国产一级A片精品免费-国产精品视频网-成人黄网站18秘 免费看|www.tcsft.com

生成式人工智能的安全風險及監管現狀

生成式人工智能是一種人工智能發展的新技術樣態,通過利用神經網絡、深度學習與遷移學習等算法提高算法精度與效率,滿足大量實時交互與沉浸式交互的需求。隨著人工智能技術的應用普及,生成式人工智能技術濫用等問題不斷出現,同時也帶來了信息安全問題。例如,在 2023 年 2 月美國芝加哥市長選舉投票前夕,關于候選人保羅·瓦拉斯(Paul Vallas)放縱警察執法暴力的深度偽造音頻出現在社交媒體,由此引發美國主流媒體對生成式人工智能可能影響 2024 美國總統大選的擔憂。2023 年 4 月,美國斯坦福大學以人為本人工智能研究所(Stanford HAI)發布的《2023 年人工智能指數報告》(Artificial Intelligence Index Report 2023)分析了人工智能的影響和年度趨勢。報告發現,關于人工智能濫用的事件數量正在迅速上升。通過追蹤人工智能道德濫用相關事件的人工智能算法和自動化事件和爭議(AIAAIC)數據庫,2012 年至 2022 年十年間,人工智能相關爭議事件增加近 26 倍。針對各類人工智能問題,世界主要國家和地區陸續從安全性審查、技術禁用等角度出臺有關監管措施,以期實現對生成式人工智能的有效治理。

一、生成式人工智能的安全風險

生成式人工智能是利用以 Transform 為代表的算法模型,基于海量數據預訓練和實時數據特征提取自主生成創造新內容的技術范式,并因其自主化、創造性的生成內容可以顯著提升信息獲取和生成效率,迅速演化為社會“熱捧”的前沿技術。從技術樣態及其應用而言,諸多人工智能數據被提取、使用和創造,機器生成的海量內容涌入網絡空間,帶來的風險不言而喻。

(一)基于算法能力的內容安全風險

生成式人工智能改變了互聯網信息生成和傳播模式,使人工智能生成內容(AIGC)成為繼專業生產內容(PGC)、用戶生產內容(UGC)后的新型內容生產方式。“生成式+人工智能”的組合為虛假信息的泛濫提供了前所未見的技術“支撐”。生成式人工智能注重知識重組、創造和輸出,如果人為對其進行有偏見性的數據導入和算法建構,其諸多內容生成極易演變為偏見性的意識形態輸出。

一方面,傳統的人工智能模型雖然可產生虛假信息,但是其規模和影響力有限。以 ChatGPT 為代表的生成式人工智能應用,可以在情境化和個性化語境操縱、說服和影響用戶。操縱者可以大量生產并擴散虛假信息,并利用社會不穩定情緒引導受眾目標的價值取向,分裂公眾原有的社會共識,危害國家安全。

另一方面,生成式人工智能將加速國家數字數據基礎設施戰略向“預測”轉變,技術的政治嵌入性、算法的政治預測性、數據的政治應用性將在生成式人工智能加持下改變政治生態。國家治理邏輯轉向預測、先發制人和“模擬未來”,國家傾向于從數據中“了解”公民,并將決策交給機器學習。操縱者在大模型建構中可通過數據污染、算法黑箱等形式干擾國家政治決策。

(二)基于技術應用的數據安全風險

人工智能訓練數據安全是一個重要問題。數據層的風險多表現為數據違規爬取、合成數據違規使用、人工標注數據歧視及敏感數據存儲安全等。為形成接近于人類語言的語言模型,生成式人工智能訓練的數據量多達上萬億,并不斷實現監督學習、人工糾錯、強化學習、進行對話模擬等過程。訓練數據包括大量個人數據、行業數據甚至國家數據等重要且敏感的數據,并且在被使用的過程中不斷收集使用者相關數據信息。這些數據同樣面臨跨境數據流動問題。國家和國際層面的跨境數據流動政策不僅會影響貿易、創新和經濟進步,還會影響與數字化成果分配、人權、執法等與國家安全相關的一系列問題。

(三)基于大模型的算法安全風險

基于大模型的生成式人工智能也帶來了算法透明度低、算法歧視影響社會公平、算法歸責存在困境等問題。在算法可解釋性方面,大模型技術的可解釋性將徹底顛覆以算法透明為內核構建而成的算法治理體系。生成式人工智能的技術公司是規則制定者與規則執行者,可以憑借技術優勢人為構建“運行黑箱”,導致算法運行過程難以被監控,進一步加劇信息不對稱。盡管生成式人工智能模型在很多任務上表現出色,但是其復雜的內部工作機制使模型解釋性變得困難。這可能導致在模型出現問題時難以定位原因,增加了算法歸責的難度。如果生成式人工智能模型依賴的大量訓練數據存在偏差,就會導致模型在某些特定領域的預測結果存在偏差,從而影響算法的公平性和準確性。

二、主要國家和地區的生成式人工智能監管實踐

以美國、歐盟、英國和中國為代表的國家和地區,均針對生成式人工智能提出了相異的監管方法,形成了不同的監管類型。

(一)技術審查思路

部分國家和地區采用技術審查措施,重點關注生成式人工智能的安全性風險。技術審查是確保生成式人工智能系統安全、可靠和合法的關鍵環節,主要目的是評估生成式人工智能系統的技術性能、安全性、可靠性及合規性,確保人工智能系統不會對用戶造成傷害或侵犯用戶隱私權益。技術審查涵蓋多個方面,主要包括數據安全與隱私保護、模型訓練與優化、算法設計與實現、系統集成與測試等。技術審查也應考慮人工智能系統在各種應用場景的性能表現、安全風險及合規要求。

美國政府在 2022 年 10 月發布了《人工智能權利法案藍圖》(Blueprint for an AI Bill of Right),旨在指導自動化系統的設計、使用和部署,保護美國公眾個人數據不被人工智能算法濫用。2023 年 1 月,美國國家標準與技術研究院(NIST)發布了《人工智能風險管理框架》(AI RMF),旨在指導機構組織在開發和部署人工智能系統時降低安全風險,確保人工智能的穩健性、安全性和道德性。然而,這些政策措施并沒有完全消除業界和學界對人工智能技術可能造成危害的擔憂。2023 年 3 月,埃隆·馬斯克(Elon Musk)等千名業界和學界人士聯署公開信,呼吁所有人工智能實驗室立即暫停訓練比 GPT-4 更強大的人工智能系統,暫停至少 6 個月,以便制定和實施安全協議。2023 年 4 月,美國科技倫理組織人工智能和數字政策中心(CAIDP)要求美國聯邦貿易委員會(FTC)阻止 OpenAI 發布新的 GPT-4 商用版本,理由是 GPT-4“有偏見性,欺騙性,對隱私和公共安全構成風險”。2023 年 4 月,出于對人工智能技術可能造成危害的擔憂,拜登政府已開始研究是否需要對 ChatGPT 等人工智能工具進行審查。美國商務部的國家電信和信息管理局(NTIA)就 ChatGPT 等人工智能工具監管措施公開征求意見,收集的公眾意見將提供給白宮,確保聯邦政府對人工智能相關風險和機遇采取統一而全面的措施。

除美國外,僅在 2023 年 4 月就有多個國家出臺了關于生成式人工智能及其應用工具的審查性政策。4 月 4 日,加拿大隱私專員辦公室宣布,將對 ChatGPT 背后的公司 OpenAI 展開調查,調查的原因是其涉嫌“未經同意收集、使用和披露個人信息”。美國路透社 4 月 11 日消息,法國網絡國家信息自由委員會(CNIL)表示,正在調查有關 ChatGPT 的幾起投訴。4 月 13 日,西班牙數據保護局(AEPD)要求歐洲數據保護委員會(EDBP)評估關于美國 OpenAI 公司 ChatGPT 的隱私問題。5 月 11 日,美洲數據保護網絡(RIPD)提議在行使其職權時對生成式人工智能服務啟動監督工作,并將在網絡框架內開展協調行動。RIPD 是一個由該地區 12 個國家的 16 個數據保護機構組成的論壇,目標是促進和保障個人數據保護的基本權利,常設秘書處設在西班牙數據保護局。

(二)技術禁用對策

除技術審查思路外,部分國家和地區采用更為直接和強制的技術禁用對策。所謂技術禁用是指直接通過行政指令、法律程序等形式在特定主權領域內禁止使用生成式人工智能應用的對策形式。技術禁用可以暫時遏制生成式人工智能所帶來的即時性風險,發現并解決潛在的問題,從而保障人工智能系統的可靠性和安全性。

作為歐洲最嚴格的人工智能監管國家,意大利成為全球首個禁用 ChatGPT 的國家。2023 年 3 月 30 日,意大利個人數據保護局發布公告,禁止使用 ChatGPT,并限制 OpenAI 處理意大利用戶的個人信息,同時啟動對該公司的調查。意大利個人數據保護局指出,ChatGPT 違反了《通用數據保護條例》(GDPR)規定,因為它未經用戶同意就收集和使用了他們的個人數據,同時未提供足夠的透明度和可解釋性信息,也未保證數據的安全性和質量。4 月 12 日,意大利個人數據保護局表示,OpenAI 若要解禁 ChatGPT,需在 4 月 30 日前在網站上說明 ChatGPT 數據運用原理和方式,要求意大利用戶確認自己年滿 18 歲,出臺技術方案允許用戶和非用戶糾正或刪除 ChatGPT 產出的錯誤信息,并在 5 月 15 日前開展宣傳活動,告知公眾將使用個人數據訓練算法,在 9 月 30 日前需采取禁止 13 歲以下用戶和確保 13 歲至 18 歲用戶獲得父母同意的措施。

2023 年 4 月 21 日,德國人工智能工作組負責人Dieter Kugelmann 表示,德國監管機構將對 OpenAI 的隱私實踐和歐盟通用數據保護條例合規性展開調查,可能會效仿意大利,暫時禁用 ChatGPT,原因同樣是數據安全問題。德國監管機構認為,《通用數據保護條例》對 OpenAI 和 ChatGPT 構成了重大挑戰,ChatGPT 可能侵犯了用戶的隱私權和知情權,而且可能產生誤導性或有害性的內容,對公共秩序和民主制度構成威脅。

(三)制度化技術監管方法

技術審查和技術暫用的監管實踐,體現為應對生成式人工智能突然大規模應用的臨時性措施。制度監管則是通過制定和完善相關法規、政策和標準,規范生成式人工智能的使用和管理,從而實現對人工智能的有效監管。

為促進生成式人工智能技術健康發展和規范應用,根據《網絡安全法》等法律法規,中國在 4 月 11 日發布了《生成式人工智能服務管理辦法(征求意見稿)》,并于 7 月 10 日正式發布《生成式人工智能服務管理暫行辦法》。該管理辦法指出,利用生成式人工智能生成的內容應當真實準確,相關服務提供方應向國家網信部門申報安全評估,采取措施防止生成虛假信息。該管理辦法將生成式人工智能的監管重點置于服務提供層,放寬了對技術研發的監管限制。

4 月 27 日,歐洲議會就《人工智能法案》(The AI Act)提案達成臨時政治協議。該法案要求部署 ChatGPT 等生成式人工智能工具的公司披露用于開發其系統的受版權保護的材料。該法案對生成式人工智能的透明性做出初步要求,例如要求披露信息是由人工智能生成的情況、算法框架應謹防非法內容生成以及公開用于算法訓練的數據版權。6 月 14 日,歐洲議會投票通過了《人工智能法案》草案。之后,歐洲議會、歐盟委員會和成員國將就該法案最終條款進行談判磋商。

三、生成式人工智能的監管挑戰

由于生成式人工智能技術的顛覆性和創造性,如何實現技術的有效監管仍是對現有監管制度的挑戰。各國均采取措施積極應對,美國采取技術治理路徑,歐盟采取風險管理路徑,中國采取制度化技術監管方法,既有制度創新,也保持了監管體系統一,既重視內容安全,又注重發展和安全的統一。但是,各國監管措施仍表現出臨時性、應急性特點,主要目的是遏制技術“過熱”對數據安全、信息權利造成風險。雖然從監管功能實現而言,技術審查和技術禁用等措施,在短時期可以在很大程度上遏制生成式人工智能的恣意濫用,但是從技術發展的長遠角度考慮,應建立長效化、專門化的法律制度體系,實現對生成式人工智能的有效監管。

一是現有網絡信息安全責任分配思路無法適應生成式人工智能應用的基本模式。網絡平臺監管思路強調“網站平臺信息內容管理主體責任”,網絡平臺管理者有義務審核平臺信息的真實性、準確性。這是與其網絡信息傳播渠道的基本定位相契合的歸責思路。但是,生成式人工智能服務提供者是依據用戶需求創制新內容,扮演的角色是“網絡信息內容生產者”,因而生成式人工智能難以執行信息傳播任務。AIGC 的用途由用戶決定,可以用于學習、科研等公益目的,也可以被用于制造虛假輿論。《生成式人工智能服務管理暫行辦法》第十四條規定:“提供者發現違法內容的,應當及時采取停止生成、停止傳輸、消除等處置措施,采取模型優化訓練等措施進行整改,并向有關主管部門報告。”這在實質上是要求生成式人工智能服務提供者承擔 AIGC 的合法性審查責任,與網絡平臺責任分配思路保持相似,卻與技術應用范式不同。因此,亟需以“網絡信息內容生產者責任”為基點,提出更為詳盡具體的監管措施。

二是對監管體系的技術挑戰。現階段,人工智能及生成式人工智能的監管模式均將重點置于監管組織建設、責任分配和違法責任追究等制度性議題,所提出的如數據版權、算法透明性和備案規則也并未就此類“平民化”的深度偽造風險提出應對措施。

三是對現有立法模式的挑戰。生成式人工智能監管的復雜性,挑戰現有立法模式。從監管法律制度建構而言,如“禁止生成式人工智能濫用”“禁止生成虛假、暴力、色情等非法 AIGC”的簡單表述,實質上僅完成了宣示性的法律文本建構工作,并未有效遏制生成式人工智能的諸多風險。生成式人工智能技術關涉數據安全、算法公正和算力保障等議題,又牽涉網絡謠言、網絡暴力和虛假信息治理多方位因素。現有立法體系亟需以更加技術性的立法模式,建構生成式人工智能的監管體系。

四、以“一體多元”為監管對象的風險應對

雖然世界主要國家和地區依據生成式人工智能應用現狀提出了臨時性或暫時性的監管措施,但是從監管措施的長效化、法治化角度出發,仍需明確生成式人工智能監管對象,只有明確生成式人工智能的監管對象,有關監管措施才可以依據對象要素提出有針對性且體系化的監管方法。從生成式人工智能的技術樣態及其社會應用模式出發,其監管對象表現出“一體多元”的基本樣態,需要以算法、算力和數據等技術要素為本位,結合技術社會應用所制造的多元化現實風險,提出更具有針對性的監管對策。

所謂“一體”,是指以生成式人工智能的技術樣態為本位,將監管對象確定為生成式人工智能的底層要素,即算法、算力和數據。從算法角度看,監管制度應以維護算法公正性為目的,制定諸如生成式算法備案、算法訓練和算法糾偏機制等規則。從數據角度看,監管制度應著重遏制生成式人工智能恣意收集用戶數據,或數據導入不完全、不真實的情況,特別是對網絡信息質量進行專項治理,保證 AIGC 信息的真實性。算力作為生成式人工智能運行和發展的底層“燃料”,不宜從技術發展角度進行限制,但是可以作為遏制生成式人工智能嚴重風險的應急手段。換句話說,在生成式人工智能的發展或應用范式對國家安全產生重大影響時,可以通過必要的算力限制規則從底層抽離技術恣意的風險。

所謂“多元”,是指對生成式人工智能的社會應用樣態進行動態式的監管。目前,生成式人工智能的主要應用模式是人機交互生成圖片、文字等信息,技術應用主要停留在信息生成階段。從技術發展趨勢和應用潛能看,生成式人工智能與社會交融的方式和渠道仍難以預測。例如,有學者總結了現階段主流的生成式人工智能算法模型,包括代碼生成功能的 Codex 模型、視頻合成功能的 Phenaki 模型,以及控制智能機器人的 GATO 模型等。

可以說,生成式人工智能擁有廣闊的應用前景和可能性,有關監管制度應著眼于現階段生成式人工智能及 AIGC 所制造的現實風險,解決多元多樣且現實存在的重點問題,包括生成式人工智能平臺責任厘清和監管、AIGC 內容真實性核查等問題。此外,有關監管機構應建立生成式人工智能技術風險的動態研判機制,對生成式人工智能的風險進行實時監測,保障監管機制的動態調整。【本文系國家社科基金重大項目網絡信息安全監管法治體系構建研究(21&ZD193)階段性成果】

(本文刊登于《中國信息安全》雜志2023年第8期)

來源:中國信息安全

上一篇:2023年勒索軟件威脅態勢:從加密數據向無加密攻擊演變

下一篇:國際專業技術機構IEEE成員提出減輕衛星系統風險的網絡安全框架