2017 年,在聯(lián)邦通信委員會 (FCC) 的一次公開征求意見期間,機器人向該機構(gòu)發(fā)送了100多萬條虛假選民的評論,呼吁廢除網(wǎng)絡中立規(guī)則。監(jiān)管機構(gòu)發(fā)現(xiàn)了這一顛覆政策流程的秘密企圖,因為這數(shù)十萬條評論驚人地相似。此后的六年里,人工智能 (AI) 工具變得越來越復雜,類似的欺騙政策制定者的行為變得也越來越難以發(fā)現(xiàn)和防范。這種令人擔憂的風險及其對參與式政府的影響要求我們采取緊急行動。
開放和負責任的政府是美國政治傳統(tǒng)組成部分。其基本原則是公眾應能充分獲得信息,并有機會參與重要的政策決策。從電報的發(fā)明到社交媒體的爆炸式增長,新技術為公眾民主參與創(chuàng)造了新的途徑。然而,這些技術也常常創(chuàng)造出新的工具,用于歪曲公眾輿論并扭曲政策制定。人工智能也不例外。
與之前的技術革命一樣,人工智能的發(fā)展也帶來了希望:隨著時間的推移,它可以提高政府了解公眾需求的能力,并幫助公民參與政策決策。特別是,可以部署自動匯總和分析來增強官員消化公眾反饋的能力。但是,要實現(xiàn)這些潛在的好處,必須要有防護措施,以確保人工智能系統(tǒng)準確并適合當前的目的,防止系統(tǒng)偏差反映社會歷史不平等和削弱特定社區(qū)的聲音,并在出現(xiàn)這種結(jié)果時減輕影響。
聯(lián)邦通信委員會(FCC)的事件體現(xiàn)了反對者如何利用人工智能工具來破壞公眾對政府決策的真實意見。生成人工智能的新發(fā)展使大規(guī)模欺騙行為變得更加復雜,可以有效地模仿個人對公共政策的反饋,從而導致官員被難以檢測的人工智能生成內(nèi)容欺騙或轉(zhuǎn)移的危險。利用生成式人工智能,欺詐者可以從虛假利益相關者那里生成大量看似真實的政策意見書,從而操縱公眾的情緒感知。如果惡意部署的規(guī)模足夠大,這種行為可能會削弱政府響應美國人民需求的能力,并最終破壞人民對政府的信任。與此同時,管理選舉的公職人員面臨著嚴峻的風險,即惡意行為者會利用人工智能工具放大對選舉過程的毫無根據(jù)的擔憂,在選舉日之前(或當天)分散選民的注意力,或?qū)⑥k公室日常工作淹沒在機器人發(fā)送的文件請求中,而這些請求是否由人工智能生成很難被識別。
這些危害需要有針對性的政策干預。為了解決這些問題,政府機構(gòu)應采取以下措施:
公民參與和政府響應:人工智能作為歪曲民意的工具
正如政治理論家羅伯特·達爾(Robert Dahl)的著名論述,“民主的一個關鍵特征是政府對公民的偏好做出持續(xù)的回應。” 長期以來,政客、專家和學者們一直在爭論美國政府是否履行了這一承諾。從歷史上看,爭論的焦點主要集中在那些削弱公民選擇領導人能力的因素上,如徹底剝奪公民選舉權(quán)、立法機構(gòu)分配不均和選區(qū)劃分,以及影響公職人員積極性的因素,比如富有的競選捐贈者所發(fā)揮的巨大作用以及隨之而來的腐敗風險。然而,提高回應能力的一個基本前提是官員有能力評估公眾的實際需求。在政策制定者能夠解決選民偏好之前,他們必須首先能夠收集這些偏好是什么。
當然,政策制定者擁有一系列工具來幫助他們了解公眾的需求。其中一些工具,如民意調(diào)查,相對來說不會受到人工智能的干擾(至少目前如此)。但與民調(diào)相比,其他方法更容易受到人工智能操縱,尤其是當民意調(diào)查依賴于基于地址的招募等方法時。而民調(diào)的局限性——包括其捕捉細微立場和觀點細節(jié)的微弱能力——也是眾所周知的,這就是為什么直接與公眾接觸和征求公眾意見的方法仍然至關重要。在此,我們簡要介紹了解公民傾向的兩種常見工具:針對民選官員的信函和提交給監(jiān)管機構(gòu)的在線公眾意見。
長期以來,從總統(tǒng)到縣長,民選官員都依靠書面通信來掌握選民的脈搏,尤其是關注特定問題的知情選民。過去,外部團體曾試圖通過造勢來歪曲對選民情緒的評估,即招募個人發(fā)送通常預先寫好的信件,給人一種真誠的基層情緒的假象。然而,生成式人工智能可以讓惡意行為者輕松、大規(guī)模地創(chuàng)建來自假選民的特有信息,這些假選民表面上是政策立場的擁護者,這大大增加了偵查歪曲民眾偏好的難度。
民選官員能辨別出人工智能生成的內(nèi)容和真人撰寫的選民郵件嗎?最近的研究 表明并非如此。2020 年,研究人員進行了一項實地實驗,他們向 7000 多名州議員發(fā)送了大約 35,000 封電子郵件,倡導他們在一系列政策問題上的立場。其中一半是真人寫的;另一半由當時最先進的生成式人工智能模型 GPT-3 撰寫。為了探索立法者是否能夠識別人工智能生成的內(nèi)容,研究比較了人工撰寫的信件和人工智能生成的信件回復率(理論上立法者不會浪費時間回復人工智能機器人的呼吁)。在三個問題上,人工智能和人類撰寫信息的回復率在統(tǒng)計上沒有區(qū)別。在另外三個問題上,人工智能生成的電子郵件的回復率較低,但平均只有2%。
這一發(fā)現(xiàn)表明,一個能夠輕松生成成千上萬封獨特郵件的對手,有可能歪曲立法者對選民最關心問題的看法,以及選民對任何特定問題的看法。此外,一些立法者報告稱有助于他們識別可疑內(nèi)容的許多不一致性和問題,隨著更先進的人工智能模型的出現(xiàn)而變得不那么普遍 。例如,GPT-3 在撰寫對槍支管制立法采取保守立場的電子郵件時難以保持邏輯一致性,但 GPT-4 的更新的算法能夠更好地避免此類問題。最先進的開源模型現(xiàn)在也足以勝任這些寫作任務,因此想要把精靈放回瓶子里即使不是不可能,也是變得很困難。
生成式人工智能還可能通過破壞將公眾意見納入監(jiān)管過程的主要機制——公眾意見征詢,從而威脅到民主響應。行政機構(gòu)在政策制定中發(fā)揮著至關重要的作用——尤其是在聯(lián)邦層面——但它們與選舉政治的相對隔離可能會引發(fā)對公眾問責的擔憂。通知和評論流程雖然遠非完美,卻是非民選機構(gòu)官員在機構(gòu)規(guī)則制定過程中用來評估公眾偏好的主要工具之一。技術,尤其是 2002 年電子規(guī)則制定的出現(xiàn),一直被認為是通過“加強公眾參與……從而促進更好的監(jiān)管決策?!?來解決民主問責問題的一種方式。Regulations.gov 網(wǎng)站是機構(gòu)規(guī)則制定相關信息的官方交流中心,它邀請普通公民“做出改變,提交你的意見,讓人們聽到你的聲音?!?/p>
但是,正如聯(lián)邦通信委員會(FCC)網(wǎng)絡中立規(guī)則制定過程中的破壞事件所顯示的那樣,這一過程很容易被顛覆。盡管大量具有可疑相似語言模式的評論揭開了網(wǎng)絡中立性方案,但新的生成式人工智能技術可以輕松克服這一問題,通過創(chuàng)建數(shù)百萬條獨特且多樣化的評論來推動特定的政策立場。因此,各機構(gòu)將更確定哪些評論真正代表了公眾的普遍情緒,甚至是最直接相關的利益相關者的觀點。
認識到惡意使用人工智能所帶來的威脅,科技公司正在競相開發(fā)能夠識別人工智能生成文本的工具。然而,要有效地做到這一點所面臨的挑戰(zhàn)是艱巨復雜的。2023 年 7 月,OpenAI 由于準確性有限而停止了其人工智能分類器工具。鑒于《行政程序法》中對公眾意見的要求,只有高度準確的篩選工具才有可能通過聯(lián)邦規(guī)則制定流程的考驗。即使未來技術的進步成功產(chǎn)生了可靠和有效的工具,不同部門和不同級別的政府在獲取和使用這些工具的能力上也可能存在差異。
選舉的挑戰(zhàn):人工智能作為轉(zhuǎn)移資源和扭曲公眾需求認知的工具
生成式人工智能有可能擾亂選舉辦公室的工作,這對民主構(gòu)成了重大風險。公開記錄法(也稱陽光法)是重要的透明度工具,它可以讓公眾了解政府的內(nèi)部運作并追究官員的責任。但在過去的選舉周期中,否認選舉的人利用這些法律來分散一些選舉辦公室官員的注意力,使其超負荷工作,在關鍵時刻取代了選舉管理的重要工作。在 2022 年中期選舉之前,與 2021 年 1 月 6 日美國國會大廈襲擊事件有關的資金雄厚且充滿陰謀的全國性組織動員公民,向當?shù)剡x舉辦公室發(fā)出大量文件請求。其中一些請求尋求敏感信息,如投票記錄、選舉安全協(xié)議或投票機序列號。雖然州公共記錄法可以正確地阻止選舉辦公室披露危及選舉安全的信息,但地方官員并不普遍知道根據(jù)記錄要求必須或不可以披露哪些信息。未來,選舉否認者和其他惡意行為者可能會通過部署由生成式人工智能驅(qū)動的機器人來加強這種努力。州法律通常不會限制使用機器人提交批量請求,也不允許官員拒絕響應自動批量生成的請求,即使目的是在選舉日之前轉(zhuǎn)移官員對管理選舉關鍵工作的注意力。
面對極其有限的資源,選舉辦公室還要依靠公眾的意見來提供相關的選舉信息,并確定任務的優(yōu)先次序。選舉官員必須了解殘疾人、少數(shù)民族語言群體和其他弱勢群體的需求,特別是當這些群體在選舉日登記投票或投票時遇到問題時。官員們還必須了解在如何投票方面常見的困惑,并能夠有效解決目標群體對選舉安全的擔憂。
惡意使用生成式人工智能可能會危機這些重要角色。人工智能產(chǎn)生的欺騙性大眾評論會歪曲或淹沒真正的公眾問題和反饋,可能會導致對有需要的選民的支持不足,并誤導選民教育工作。它們還可能加劇限制性選民規(guī)則,造成人們對選舉過程毫無端擔憂更加普遍的印象,從而給投票帶來更多障礙;過去,虛假信息傳播者利用對選舉公正性無端擔憂,在沒有正當理由的情況下推行限制投票權(quán)的政策。因此,在人工智能的輔助下,對公眾需求感知的扭曲可能會使選舉官員對選民的反應更加遲鈍,更無法傳達重要的選舉信息,也更不可能向選民提供他們最關心的問題的信息。
人工智能對參與型與響應型政府的潛在價值以及所需的警戒線
如果說生成式人工智能和其他人工智能工具給參與型和響應型政府構(gòu)成了風險,那么它們也帶來了機遇——最值得注意的是它們有潛力幫助政策制定者更好地管理和回應公眾的意見、反饋和問題。但是,政府在使用人工智能為敏感任務提供實質(zhì)性協(xié)助時,也需要制定相關標準,以防止出現(xiàn)不當、有偏見或不準確的結(jié)果。(實質(zhì)性協(xié)助是指使用人工智能系統(tǒng)來執(zhí)行比按字母順序排列文檔或按日期或文件大小對文檔進行排序更復雜的任務。)
政府部門已經(jīng)在使用非生成式人工智能向公眾提供信息,并對尋求信息或服務的選民做出實時回應。美國和其他地方的許多政府機構(gòu)都使用人工智能驅(qū)動的聊天機器人來提供全天候的選民援助。這些工具通常不是由生成式人工智能驅(qū)動的,而是基于規(guī)則的聊天機器人,可以識別關鍵字并提供預先審查好的回復,或者是對話代理(類似于蘋果的 Siri),使用機器學習和自然語言處理為選民提供幫助。盡管聊天機器人經(jīng)常面臨公眾的抵制——在一項調(diào)查中,超過半數(shù)的受訪者對與聊天機器人互動表示負面看法——但隨著聊天機器人的不斷改進,如果政府部門能采取適當?shù)谋U洗胧﹣泶_保聊天機器人的正確使用,那么這些非生成式人工智能技術就能幫助政府節(jié)約資源并提供回應速度。
各級政府的政策制定者都要接受大量來自公眾的幫助,這使得本已不堪重負的工作人員的應對能力變得捉襟見肘。在聯(lián)邦規(guī)則制定方面,這些挑戰(zhàn)都有詳盡的記錄。各機構(gòu)可能會收到數(shù)萬甚至數(shù)十萬條關于某項擬議政策的意見,其中大多數(shù)都被敷衍處理。地方行政機構(gòu)在回應公民的溝通請求、反饋和問題方面也同樣舉步維艱。例如,在對有關如何申請公共住房信息的請求的響應情況的審計中 ,平均約 40% 的請求沒有得到答復。向公眾進行宣傳也是國會、州和地方立法機構(gòu)的一個主要關注點。據(jù)國會管理基金會估計,許多國會辦公室將大約 50% 的人力資源用于管理和回應選民溝通。
回應公眾宣傳會給政府部門帶來機會成本,但忽視回應也會帶來問題。未能得到政府官員的回應可能會削弱公民對官員政治效能的看法,并導致選民更加脫離政治進程。在某些情況下,這甚至會產(chǎn)生更直接、更具體的后果,例如公民無法找到獲得應得福利所需的信息或援助。如果非民選政府官員忽視或忽略公眾的信息時,情況尤其令人不安。在聯(lián)邦規(guī)則制定背景下,有充足的證據(jù)表面,監(jiān)管機構(gòu)傾向于忽視大多數(shù)側(cè)重于政策偏好或價值觀的意見,而傾向于一些相對詳細的技術意見(通常來自行業(yè)或其他既定利益相關者),這可以說削弱了影響數(shù)百萬人生活的行政決策的民主合法性。這種做法還往往會使政策結(jié)果向更有實力的支持者傾斜,這些支持者擁有足夠的資源來收集機構(gòu)工作人員可能會回應的技術信息。
人工智能有可能解決這些缺陷,并改善機構(gòu)規(guī)則制定流程。最近的幾篇文章探討了新的人工智能工具如何幫助機構(gòu)工作人員審查和總結(jié)在備受矚目的規(guī)則制定過程中收到的數(shù)千甚至數(shù)百萬條公眾意見。例如,監(jiān)管機構(gòu)可以使用在與規(guī)則制定相關的材料和評論語料庫上訓練的語言模型來協(xié)助處理、綜合和總結(jié)公眾提供的信息。這一策略可能會促使監(jiān)管機構(gòu)在制定政策時考慮更多注重價值的意見。人工智能工具還可以改進通知和評論流程的其他方面,例如,通過幫助監(jiān)管機構(gòu)檢測并篩選出自動化、錯誤歸因或其他虛假評論(盡管如上所述,檢測人工智能生成的內(nèi)容仍然存在重大挑戰(zhàn))。此外,盡管美國的評論家們大多主要關注人工智能在監(jiān)管過程中的應用,但其他國家的國家立法機構(gòu)也在嘗試使用人工智能來收集和組織公民意見。
生成式人工智能還可以促進公民在通知和評論過程中與政府官員的互動。一些分析家認為,人工智能可以用來提醒潛在評論者關注的話題,幫助他們審查規(guī)則文本,總結(jié)技術文獻,甚至撰寫評論。這些工具還可以幫助那些沒有時間或信心參與公眾意見征集過程的公眾。然而,與生成人工智能產(chǎn)生的信息的準確性、偏差和質(zhì)量相關的問題也必須得到解決。
盡管有潛在的好處,但使用更復雜的機器學習和語言處理人工智能工具——即使是那些不由生成式人工智能驅(qū)動的工具——也會帶來巨大的風險。人工智能系統(tǒng)需要充分的測試、訓練數(shù)據(jù)質(zhì)量的審查以及人工監(jiān)督,以確保它們向公眾提供準確、可訪問且有益的信息。偏見是一個主要問題。例如,地方政府使用的人工智能機器人可能會根據(jù)選民居住的社區(qū),為他們提供有關城市服務的不同答案?;蛘呷斯ぶ悄軐υ挻碓谔幚砜谝艋蚍窖詴r可能會遇到困難——這些情況可能會對貧困社區(qū)、有色人種社區(qū)和非英語社區(qū)造成不同程度的影響。
必須為人工智能在這些方面的應用制定相應的規(guī)范。使用人工智能來審查、總結(jié)和篩選公眾意見,與在其他情況下使用人工智能一樣,會帶來準確性和偏見方面的問題。人們有理由對人工智能取代人類在政府決策中的審議工作感到不安。人們擔心的一個問題“機構(gòu)中沒有人會真正閱讀這些意見,并理解他們的論點”。人工智能工具不僅可以用來審查和總結(jié)意見,還可以用來生成回復,為機構(gòu)預先確定的方法提供依據(jù)。需要可執(zhí)行的標準,以確保人工智能工具準確、無偏見地審查和總結(jié)意見,并使人類決策者積極參與思考,對這些意見做出回應,并在必要時將其納入最終的政策決定。
政策解決方案
實施準確、有效的系統(tǒng)來驗證人類活動,特別注意可訪問性和數(shù)據(jù)隱私
管理機構(gòu)應實施相關政策,防止惡意使用機器人發(fā)表大量由人工智能生成的評論,以扭曲官員對公眾情緒的看法。驗證人類活動的系統(tǒng)可以在一定程度上實現(xiàn)這一目標,但它們也會增加用戶的摩擦,造成數(shù)據(jù)隱私問題,并減少美國殘疾人的訪問。大多數(shù)聯(lián)邦機構(gòu)通過 Regulations.gov 網(wǎng)站邀請公眾對規(guī)則制定發(fā)表意見,該網(wǎng)站采用 reCAPTCHA 人工驗證系統(tǒng)來增強意見提交過程的完整性。(CAPTCHA 是“區(qū)分計算機和人類的完全自動化公共圖靈測試”的縮寫)。雖然 reCAPTCHA 并非萬無一失,但它有助于區(qū)分人類和機器人活動。Regulations.gov 使用新一代 reCAPTCHA,與前幾代相比提高了可訪問性,為用戶提供一個簡單的“你是機器人嗎?” 復選框作為一階挑戰(zhàn),同時分析用戶行為以識別機器人活動的跡象。然而,至少一項研究發(fā)現(xiàn),這個版本的“驗證碼”仍然給視力障礙人士帶來了障礙;它還收集一些用戶數(shù)據(jù)來確定用戶是否是人類。
政府實體——包括國會、州政府機構(gòu)和執(zhí)行公開記錄法的部門——應將人工驗證系統(tǒng)納入其邀請公眾意見和接收文件申請的流程中。隨著系統(tǒng)功能的發(fā)展,官員應不斷評估驗證碼和其他驗證方法,選擇那些能最大限度提高安全性和可訪問性的方法。官員們應密切關注生成式人工智能的發(fā)展,以戰(zhàn)勝現(xiàn)有的驗證碼系統(tǒng),并關注是否需要新的系統(tǒng)來取代它們。法律和法規(guī)應規(guī)定最低限度的、任務必需的數(shù)據(jù)收集和保留,禁止各部門共享收集的數(shù)據(jù),并強制定期刪除保留的選民數(shù)據(jù)。還應要求政府部門和驗證系統(tǒng)供應商披露有關數(shù)據(jù)收集和存儲的詳細信息(在不向潛在的欺詐者透露如何規(guī)避防御措施從而嚴重影響系統(tǒng)功效的情況下)。政府部門應為殘障人士和無法使用技術或互聯(lián)網(wǎng)的人提供其它提交和驗證方法。
創(chuàng)造親身參與以及和公眾直接對話的機會
隨著機器人生成的欺騙性公眾評論問題變得越來越具有破壞性,管理機構(gòu)應該探索通過生成式人工智能相對不被扭曲的參與模式。親自參與的機會可以包括公開聽證會、市民大會和其他類似的論壇。公開聽證會和市民大會的舉辦地點、區(qū)域和時間應允許廣泛的公眾參與。管理機構(gòu)應采取最佳實踐,以增加殘疾人、有色人種和移民社區(qū)的參與機會。這些最佳做法應包括:在非英語主導社區(qū)占選民人數(shù)一定比例的情況下,由熟悉相關政策術語的口譯員提供同聲傳譯;提供美國手語翻譯和其他適當?shù)墓脖憷?;并盡可能確保聽證會可以通過公共交通到達。
由于市民大會和公開聽證會通常缺乏代表性且范圍有限,因此各機構(gòu)和管理機構(gòu)還應持續(xù)始采用各種工具,如針對已知選民(例如,使用過政府服務或申請公共福利的選民)進行調(diào)查,以獲取公眾的見解、情緒和反饋。此類調(diào)查將為計劃實施和服務提供寶貴的反饋意見。官員們在開展調(diào)查推廣工作是,既要加強信息收集過程的完整性和包容性,又不能給受訪者造成過重的負擔。為了降低因使用欺騙性人工智能造成信息失真的風險,在線調(diào)查應采用有效、可訪問且保護隱私的人工驗證系統(tǒng),并且可以在統(tǒng)一的跨機構(gòu)平臺上進行。
授權(quán)政府機構(gòu)無視通過欺詐性使用機器人或自動化系統(tǒng)提交的政策法規(guī)相關意見建議
聯(lián)邦行政程序法、州行政法和公開記錄法要求管理機構(gòu)在規(guī)定的時間內(nèi)考慮公眾就擬議法規(guī)提交的意見,并及時回復文件請求,但有某些例外情況。但目前,使用人工智能工具提交的旨在扭曲政策制定或轉(zhuǎn)移資源的意見和請求也不例外。當有證據(jù)有力地表明,對擬議法規(guī)或記錄請求的意見是通過機器人或自動化系統(tǒng)以欺詐方式傳送的,聯(lián)邦和州法律應允許各機構(gòu)拒絕考慮這些意見和請求。
關于人工智能欺詐性使用的法規(guī)和政策應涵蓋使用機器人或其他自動化系統(tǒng)模仿或復制人類活動,從而嚴重歪曲其產(chǎn)出背后的人類參與規(guī)模。例如,這種標準不應涵蓋個人或組織使用生成式人工智能來協(xié)助起草意見或在組織使用生成式人工智能來協(xié)助起草意見或使用經(jīng)人認可的格式信件——這一基準可能會對弱勢社區(qū)產(chǎn)生負面影響。相反,它應該是指使用由生成人工智能或其他方式驅(qū)動的機器人或自動化系統(tǒng)來傳輸大量政策意見書,目的是歪曲官方對參與提交此類內(nèi)容的人數(shù)的看法,或傳達來自不存在的人的公開記錄請求。對于任何此類決定,應給予充分的通知和上訴機會。鑒于目前生成式人工智能內(nèi)容檢測能力的局限性,以及檢測工具對非英語母語者的內(nèi)容進行錯誤分類的歷史記錄,除非檢測工具符合嚴格的標準,否則不應部署它們。
為政府使用人工智能分析公眾意見或協(xié)助起草文件或公共政策設立警戒線
雖然人工智能為提高政策制定者對選民的響應能力提供了機會,但它也可能帶來偏見、不準確和不可靠的風險,在投入使用此類系統(tǒng)之前必須解決這些風險。國會、州立法機構(gòu)以及聯(lián)邦和州機構(gòu)應為政府人工智能的使用實施保障措施,以降低這些風險,包括適用于政府使用人工智能來分析公眾意見、與選民互動以及為起草法規(guī)、法律和政策提供實質(zhì)性幫助的可執(zhí)行要求。對于聯(lián)邦使用人工智能的使用,國會應指示管理和預算組織(OMB)頒布法規(guī),規(guī)定訓練數(shù)據(jù)質(zhì)量和人工智能系統(tǒng)準確性的最低門檻,包括解決人類反饋強化學習產(chǎn)生的偏差的標準, 禁止法規(guī)所定義的算法歧視,并要求在人工智能的實質(zhì)性輔助下,人類參與和監(jiān)督政府決策和公共溝通的基準水平。立法者還應限制人工智能系統(tǒng)在評估公眾意見時可審查的信息類型,這些意見是《行政程序法》所管轄的規(guī)則制定工作的一部分(例如,限制使用實際或預測的種族來試圖將情緒與種族聯(lián)系起來)。
國會還應該:
根據(jù)拜登總統(tǒng)最近關于人工智能的行政命令,OMB 和人事管理辦公室應將類似的指令納入聯(lián)邦機構(gòu)指南。各州立法機構(gòu)應該對州政府使用人工智能系統(tǒng)提出類似要求。
尋求更好地了解選民如何使用生成式人工智能對規(guī)則制定和其他政策提交的評論意見
各機構(gòu)應不斷與民間組織合作,以確定來自不同社區(qū)的利益相關者如何使用人工智能與政府互動,并找出公眾教育和意識方面的差距。民間組織應向希望使用生成式人工智能來協(xié)助撰寫對擬議法規(guī)和其他政策提交意見的選民提供指導。他們應該就以下方面提供建議:提示的必要性;在提交之前審查評論的必要性;確保評論者準確反映評論者的偏好;人工智能工具產(chǎn)生的事實核查信息的謹慎性;某些人工智能系統(tǒng)固有的文化偏見;以及人工智能工具可能會產(chǎn)生虛假或誤導的內(nèi)容或無法反映選民真實觀點的內(nèi)容的可能性。
【原文來源:https://www.brennancenter.org/our-work/research-reports/artificial-intelligence-participatory-democracy-and-responsive-government】
來源:數(shù)旗智酷