压在透明的玻璃上c-国产精品国产一级A片精品免费-国产精品视频网-成人黄网站18秘 免费看|www.tcsft.com

法國CNIL發布人工智能行動計劃

2023年5月16,CNIL發布了一份人工智能行動計劃,內容分為四個方面:

1. 了解人工智能系統的運作及其對個人的影響;

2. 支持和監管尊重隱私的人工智能的發展;

3. 整合和支持法國和歐洲生態系統中的創新者;

4. 審計和監控人工智能系統,保護個人。

考慮到保護個人數據是設計和使用生成式人工智能、大型語言模型和相關應用(尤其是聊天機器人)工具的一個重大問題,CNIL發布了旨在規范生成式人工智能開發等方面的行動計劃。該計劃是基于CNIL多年來對人工智能所涉及的數據保護和個人自由問題的相關研究。自2017年發布有關算法和人工智能的倫理問題的報告以來,CNIL已經多次就新技術所帶來的問題發表聲明。

近幾個月以來,生成式人工智能在文本和會話領域迅速發展,大型語言模型(Large Language Models or LLMs),如GPT-3、BLOOM或Megatron NLG以及派生的聊天機器人(ChatGPT或Bard)相繼出現。此外,它還在圖像(Dall-E、Midjourney、Stable Diffusion等)和語音(Vall-E)領域得到了廣泛應用。

這些基礎模型(Foundation models)及基于此建立的技術組件已經在各個領域有了許多應用案例。然而,對于它們的運作、可能性和局限性以及圍繞它們的開發和使用的法律、倫理和技術問題仍然存在廣泛的爭議。

因此,考慮到保護個人數據對于設計和使用這些工具的重大意義,CNIL公布了旨在規范生成式人工智能開發等方面的行動計劃。

什么是生成式人工智能?

生成式人工智能是一種能夠根據用戶的指令創建文本、圖像或其他內容(如音樂、視頻、聲音等)的系統。這些系統可以利用訓練數據生成新的內容。由于使用了大量數據進行訓練,因此它們的表現已經接近于人類的創作能力。然而,為了獲得預期的結果,這些系統需要用戶明確指定他們的需求。因此,圍繞用戶請求的設計方面也出現了真正的專業技能(prompt engineering)。

例如,下面這張名為“太空歌劇院”的圖片就是由用戶Jason M. Allen基于文字說明(包括舞臺裝置、長袍、藝術靈感等)在Midjourney工具上生成的。

版權歸屬:Jason M. Allen(2022)

四個方面的行動計劃

多年來,CNIL一直在開展工作,以預見和應對人工智能及其不同形式(分類、預測、內容生成等)和不同用途所帶來的挑戰。

面對涉及保護自由、加速人工智能和與生成式人工智能有關的現狀,智能技術監管是CNIL行動的主要方向。CNIL的工作圍繞著四個目標來展開:

1.了解AI系統的運作方式及其對個人的影響;

2.允許和規范尊重個人數據的AI的發展;

3.集成和支持法國和歐洲AI生態系統的創新者;

4.審計和監控AI系統,并保護個人。

01?了解AI系統的運作方式及其對個人的影響

用于設計和運行AI工具的創新技術提出了有關數據保護的新問題,尤其包括:

  • 這些工具所需數據處理的誠信和透明度;
  • 公開訪問網絡數據的保護,以防止數據采集或“爬取”用于此類工具的情況;
  • 用戶在使用這些工具時傳輸的數據的保護,從通過接口進行的收集到潛在重新使用,以及由機器學習算法處理的數據;
  • 對個人數據權利的影響,無論是對于為建立模型而收集的數據還是對于作為生成式人工智能產生的內容提供的數據等;
  • 防止可能發生的偏見和歧視;
  • 這些工具的未知安全挑戰。

這些方面將成為智能技術服務和CNIL數字創新實驗室(LINC)的優先工作方向之一。

LINC的文件

為了突出生成式人工智能所面臨的某些特定挑戰,CNIL數字創新實驗室(LINC)發布了一份專門介紹生成式人工智能的文件。該文件包括四個部分,具體如下:

  • 詳細介紹最近聊天機器人的技術功能,并強調數據在構建底層基礎模型中的核心作用;
  • 闡述了創建這些模型所提出的各種法律問題,包括知識產權和數據保護等;
  • 清晰闡明了生成式人工智能在信息可靠性、惡意使用以及檢測并警告公眾有關生成內容存在的意義倫理挑戰;
  • 通過不同的實驗說明了這些工具可能帶來的積極或消極用途。

這份文件補充了CNIL網站上為專業人士和大眾提供的資源。

02?允許和規范尊重個人數據的AI的發展

許多機構向法國國家信息與自由委員會(CNIL)表達了對將《通用數據保護條例》(GDPR)應用于人工智能,特別是生成式人工智能訓練的不確定性。

為了協助人工智能領域的各方并為歐盟“AI條例”(正在歐盟討論中)的實施做好準備,CNIL已經展開以下工作:

  • 2022年在cnil.fr上發布了關于人工智能的初步資料,其中包括有關人工智能的基本原則的教育內容和指南,以協助專業人士達成符合規定的目標;
  • 2022年還發布了一份有關使用“增強”視頻監控(使用公共空間圖像的AI技術)的立場。

CNIL將繼續進行學術研究,并即將發布多個文件。因此:

CNIL將很快提交一份關于共享和重復使用數據適用規則的指南的公開咨詢。這些工作將特別涉及到在互聯網上自由獲取數據并用于多種AI模型的問題。該指南因此將針對用于設計生成式AI系統的數據處理的一部分。

CNIL還將繼續研究人工智能系統的設計和機器學習數據庫的建立。這些研究將自2023年夏天開始,在已經與多個利益相關者進行協商后,形成幾個文件,并提出具體建議,特別是在ChatGPT等AI系統的設計方面。

未來,CNIL還將逐步討論以下主題:

  • 使用科學研究制度建立和重復使用訓練數據庫
  • 將最終原則應用于通用AI和基礎模型,例如大語言模型;
  • 明確構成數據庫的實體之間的責任共擔,那些從這些數據中開發模型的人和那些使用這些模型的人之間的責任共擔;
  • 在考慮到精確性和數據的最小化原則的情況下,適用于訓練數據選擇的規則和最佳實踐;
  • 管理人員權利,特別是訪問、更正和反對權利的規則;
  • 適用于保留期限的規則,特別是對于最復雜的訓練庫和模型的規則;
  • 最后,CNIL認識到人工智能系統引起的問題不僅止于其設計,還繼續就機器學習模型的使用和共享、預防和糾正偏見和歧視,以及AI系統的認證等倫理問題進行思考。

03?“聯合并協助法國和歐洲AI生態系統的創新者”

CNIL的AI監管旨在推動并幫助那些在法國和歐洲價值觀保護框架下發展壯大的創新者。這個已經啟動的協助工作采取了三種形式:

  • CNIL自兩年前開始推出了一個“沙盒”計劃,以協助創新項目和創新者,其中就包括基于AI的項目。2021年針對健康領域的“沙盒”(共12個項目),2022年針對教育領域的“沙盒”(共10個項目)提供了專業建議,為這些領域內的AI創新者提供適當的指導。CNIL將很快開放2023年的新一輪“沙盒”項目申請,重點關注公共領域中人工智能的應用;
  • CNIL啟動了一個特定的協助計劃,以協助“增強”視頻監控供應商參與法律規定的2024年奧運會和殘奧會實驗計劃;
  • 最后,CNIL在2023年開放了一個新的“強化協助”計劃,以協助創新企業符合GDPR規定。該計劃的首批得主是AI領域內的創新企業。

總而言之,CNIL希望與研究團隊、研發中心和法國開發或希望開發AI系統的企業展開充分的對話,以確保符合個人數據保護規則。這些研究團隊和企業可以通過ia@cnil.fr與CNIL聯系。

04?審計和監控AI系統并保護個人

為了在尊重個人權利和自由的前提下開發人工智能系統的框架,必須在下游進行監控,確保CNIL的合規性。因此,CNIL至關重要的是開發一種工具,既能夠事先受理AI系統的審計,也能夠事后受理。

2023年,CNIL的監督行動將主要關注以下方面:

  • 公共和私營機構遵守于2022年發布的“增強”視頻監控使用立場;例如,針對社會保險欺詐的打擊之類的AI技術的使用,考慮到使用此類算法所涉及的問題;
  • 處理向CNIL提交的投訴。盡管培訓和使用生成AI的法律框架需要得到澄清,CNIL將致力于處理已經提交的投訴。特別地,CNIL已收到針對OpenAI公司管理的ChatGPT服務的多項投訴,并已啟動了一項監管程序。同時,在歐洲數據保護委員會(EDPB)內設立了一個專門的工作組,以確保歐洲當局的協調行動,并對OpenAI工具實施的數據處理進行協調分析。

CNIL將特別關注個人處理數據的行為者是否已經:

  • 進行了數據保護影響評估(DPIA),以記錄風險并采取減少其風險的措施;
  • 采取了向個人提供信息的措施;
  • 預見了適合這個特定背景的個人權利行使措施。

通過這項關鍵的協作工作,CNIL希望制定明確的規則,保護歐洲公民的個人數據,以促進尊重隱私的AI系統的發展。

來源:數據信任與治理

上一篇:美國大型IT分銷商遭勒索攻擊:客戶服務受影響 已持續多天

下一篇:GitLab目錄遍歷漏洞 (CVE-2023-2825) 安全風險通告