2023年10月,美國戰(zhàn)略與國際研究中心(CSIS)發(fā)布題為《AI監(jiān)管將至,路在何方?》(AI regulation is coming, what is the likely outcome?)的報告。該報告介紹了當(dāng)下AI監(jiān)管現(xiàn)狀,對美國自上而下的“拼湊式”AI監(jiān)管手段進(jìn)行了深入的分析,展現(xiàn)了當(dāng)下AI監(jiān)管論戰(zhàn)的核心和相關(guān)各方對此議題的看法與觀點;此外,本報告定義了AI監(jiān)管十大關(guān)鍵要素,并根據(jù)美國的AI監(jiān)管現(xiàn)狀對其未來AI監(jiān)管走勢進(jìn)行了預(yù)測。
摘譯 |?許藝凡/賽博研究院實習(xí)研究員
來源 |?CSIS
01
AI監(jiān)管現(xiàn)狀回顧
多個國家及國際組織已出臺AI監(jiān)管相關(guān)舉措,其中的代表性例子為歐盟《人工智能法案》,該法案提供了大量自上而下式監(jiān)管規(guī)則;中國國家網(wǎng)信辦等部門聯(lián)合發(fā)布的《生成式人工智能服務(wù)管理暫行辦法》則提出對生成式AI服務(wù)實行包容審慎及分類分級監(jiān)管措施。而本報告發(fā)現(xiàn),美國采取的則是分散式AI監(jiān)管措施,即各行政部門自上而下進(jìn)行分散式管理。
與歐洲不同的是,美國不太可能在未來幾年內(nèi)推出一部全面的AI法案,但這并不意味著美國在這一領(lǐng)域?qū)o法可依。美國極有可能會對特定部門采取管理措施,如醫(yī)療、金融、房產(chǎn)、兒童安全保障等;除此以外,美國也可能出臺多項行政命令,如果方法得當(dāng),那么這些規(guī)則將會有特定部門的專業(yè)知識作為根基,更加符合AI管理創(chuàng)新的要求。
本報告指出,美國政府很可能會增加AI研發(fā)投入,尤其是在國防安全領(lǐng)域及智能領(lǐng)域,并利用其較強(qiáng)的購買力來發(fā)展AI市場。然而,本報告認(rèn)為美國將會與歐洲在AI貿(mào)易方面產(chǎn)生摩擦、美國聯(lián)邦貿(mào)易委員會及司法部門可能會發(fā)出警告以防止大型科技公司集中使用AI技術(shù)。
02
AI監(jiān)管論戰(zhàn):三種不同的聲音
本報告指出了當(dāng)下關(guān)于AI監(jiān)管日趨激烈的論戰(zhàn),這場論戰(zhàn)折射出世界各國相關(guān)人士在對AI技術(shù)寄予厚望的同時,亦對其抱有較深的恐懼心理。
本報告指出,人們對AI技術(shù)懷有倫理恐懼與偏執(zhí)心理。AI領(lǐng)域內(nèi)的計算機(jī)科學(xué)家們向人們發(fā)出警告稱,生成式AI存在威脅人類生存的巨大風(fēng)險,包括比爾蓋茨、谷歌、微軟、OpenAI的高管人員以及中國、俄羅斯的AI領(lǐng)域?qū)<以趦?nèi)的行業(yè)人士聯(lián)合簽署了一份聲明,呼吁緩解這種威脅給人們造成的恐慌,同時,領(lǐng)域內(nèi)也出現(xiàn)了呼吁暫停開發(fā)比ChatGPT 4更為先進(jìn)的AI模型。
然而,AI領(lǐng)域內(nèi)仍然有對AI技術(shù)發(fā)展持樂觀態(tài)度的人士。風(fēng)險投資家安德森認(rèn)為,AI具有拯救世界的力量;不少行業(yè)人士則批判科技公司正在廣泛地販賣焦慮、推動AI監(jiān)管進(jìn)程以此來維護(hù)自身的經(jīng)濟(jì)利益,他們指出,不應(yīng)對AI技術(shù)產(chǎn)生任何擔(dān)憂,同時也應(yīng)允許公司及開放源代碼盡己所能快速高效地構(gòu)建AI。
除了上述兩種觀點以外,還有許多企業(yè)以及民間社會組織提倡對AI實行不同程度的監(jiān)督。例如,微軟公司提出,可以構(gòu)建全新的政府AI機(jī)構(gòu),并搭建起一個新的AI法律框架,要求控制關(guān)鍵基礎(chǔ)設(shè)施的AI系統(tǒng)必須進(jìn)行安全制動,并專門為負(fù)責(zé)運行關(guān)鍵AI技術(shù)的數(shù)據(jù)中心頒發(fā)許可證。
03
AI監(jiān)管十大關(guān)鍵要素
為了協(xié)助監(jiān)管者更加高效地應(yīng)對AI監(jiān)管問題,本報告定義了關(guān)于AI監(jiān)管的十大關(guān)鍵要素。
要素一:AI監(jiān)管的首要目標(biāo),是保證監(jiān)管措施的透明度、公正性、可解釋性、安全性及信任度。這五大要素決定著監(jiān)管者能否成功實現(xiàn)對AI的有效監(jiān)管。AI監(jiān)管過程中衍生出的許多具體的問題,如披露模型特點與模型偏差、告知用戶應(yīng)用風(fēng)險以及進(jìn)行獨立模型安全性測試,都需要有這些要素作為有力支撐;
要素二:基于風(fēng)險程度的監(jiān)管方法。AI監(jiān)管的難度隨著其普及程度的提高而增加。許多專業(yè)人士提出可以采用基于風(fēng)險程度的監(jiān)管措施,即對可能造成更大損害的高風(fēng)險AI技術(shù)加強(qiáng)監(jiān)管力度,對低風(fēng)險AI技術(shù)則相應(yīng)地降低監(jiān)管力度。然而,本報告指出此種辦法在實踐過程中會遇到不少阻礙,例如由誰來定義及衡量風(fēng)險程度、如何定義及風(fēng)險等問題;
要素三:降低風(fēng)險并更好地應(yīng)對惡意行為。AI監(jiān)管規(guī)則需要反映出遵守規(guī)則的合法企業(yè)與企圖實施惡意行為的個人或群體之間的區(qū)別。對于將實現(xiàn)危險的目標(biāo)作為追求(如盜竊、妨害人身安全、損害兒童安全等)的惡意行為(網(wǎng)絡(luò)攻擊、網(wǎng)絡(luò)犯罪等)需要制定更加強(qiáng)有力且更具威懾性的規(guī)則與懲罰機(jī)制;
要素四:創(chuàng)新及預(yù)先批準(zhǔn)。歐盟、微軟公司及OpenAI的監(jiān)管方法要求政府對高風(fēng)險領(lǐng)域的AI模型進(jìn)行預(yù)先審批或授權(quán)。在AI技術(shù)飛速發(fā)展的背景下,這一點變得十分重要。互聯(lián)網(wǎng)之所以能夠快速進(jìn)行創(chuàng)新,在一定程度上是因為沒有進(jìn)行預(yù)先審批,從而讓任何個人或群體都可以在不經(jīng)許可的情況下在網(wǎng)絡(luò)上發(fā)布合法應(yīng)用。人們都希望能夠?qū)崿F(xiàn)創(chuàng)新,但預(yù)先批準(zhǔn)機(jī)制有可能會制造市場準(zhǔn)入壁壘,從而對創(chuàng)新及開放競爭造成不利影響;
要素五:數(shù)據(jù)流、數(shù)據(jù)隱私及數(shù)據(jù)安全。AI對于高質(zhì)量數(shù)據(jù)的依賴性極高,模型的準(zhǔn)確性及結(jié)果直接反映出了訓(xùn)練數(shù)據(jù),因此,數(shù)據(jù)監(jiān)管可謂是AI監(jiān)管的核心。AI可能會放大數(shù)據(jù)隱私相關(guān)問題,數(shù)據(jù)流及數(shù)據(jù)安全也都與AI監(jiān)管相關(guān),這些之前就已經(jīng)存在的問題需要相關(guān)措施來協(xié)助解決;
要素六:新法律是否出臺。許多的AI技術(shù)風(fēng)險都可以通過已有機(jī)構(gòu)進(jìn)行處理。例如,美國聯(lián)邦貿(mào)易委員會有權(quán)監(jiān)管AI深度偽造等虛假行為;平等就業(yè)促進(jìn)機(jī)構(gòu)也正在積極應(yīng)對AI模型在招聘職員的過程中可能存在著的偏見問題。然而,本報告指出,當(dāng)下現(xiàn)有法律與AI在適配方面依然存在著諸多問題,因此,部分公司,例如微軟,已經(jīng)提出了“根據(jù)AI技術(shù)架構(gòu)構(gòu)建更為廣泛的法律及監(jiān)管機(jī)制”。當(dāng)然,也有不少人反對此舉,認(rèn)為現(xiàn)有的法律法規(guī)已經(jīng)能夠幫助實現(xiàn)對AI的有效監(jiān)管;
要素七:機(jī)構(gòu)措施。本報告指出,人們有必要去思考AI所帶來的挑戰(zhàn)的獨特性,以及設(shè)立專門的AI監(jiān)管機(jī)構(gòu)的必要性。關(guān)于這一問題,微軟等公司建議設(shè)立全新的政府AI機(jī)構(gòu),解決“高性能AI基礎(chǔ)模型”等問題,這種舉措可以帶來更多的資源及專業(yè)知識。不過,該舉措也存在著一定的缺陷,因為新的AI機(jī)構(gòu)可能會帶來監(jiān)管方面的“博弈”、決策低效、官僚主義等一系列問題,需要專業(yè)人士對此進(jìn)行進(jìn)一步的研判;
要素八:“胡蘿卜”+“大棒”。“胡蘿卜”指的是激勵措施,而“大棒”則指的是懲罰措施,獎懲并舉時,AI監(jiān)管效果才能夠達(dá)到最佳。例如,谷歌公司注重AI成果,訓(xùn)練員工以幫助他們更好地掌握AI,同時還大力投資AI創(chuàng)新;歐盟則通過推行《人工智能法案》采取強(qiáng)有力的懲罰機(jī)制,其中包括嚴(yán)厲的經(jīng)濟(jì)懲罰措施;
要素九:監(jiān)管范圍。人們希望AI技術(shù)在高風(fēng)險用途方面不僅能夠適用于模型開發(fā)者,且能夠適用于應(yīng)用程序及其運行的信息技術(shù)基礎(chǔ)設(shè)施。例如,只將用于支撐關(guān)鍵基礎(chǔ)設(shè)施的AI技術(shù)部署于獲得認(rèn)證許可的AI數(shù)據(jù)中心,這一舉措在未來可能會擴(kuò)大AI監(jiān)管領(lǐng)域。
要素十:國際協(xié)調(diào)機(jī)制。不同的國家在AI監(jiān)管規(guī)則方面難免會出現(xiàn)沖突,例如,歐盟《人工智能法案》中的舉措相較于美國的監(jiān)管舉措更加科學(xué)高效。因此,如何更好地協(xié)調(diào)各國AI監(jiān)管,仍需要各國共同努力。
04
美國未來AI監(jiān)管道路
對于美國未來AI監(jiān)管情況,本報告作出了以下推斷:
1、在未來幾年內(nèi),美國推行類似于歐盟《人工智能法案》的法律法規(guī)的可能性很低。報告認(rèn)為,美國可能會更多地在AI權(quán)利法案上繼續(xù)努力;
2、私營科技企業(yè)會推動AI計劃,為客戶提供更高質(zhì)量的服務(wù)。這種舉措也可以幫助企業(yè)避免政府所采取的嚴(yán)厲管制措施;
3、聯(lián)邦政府對AI及AI研究方面的投入將不斷擴(kuò)大。此種投入同時也包括對非營利組織及高校的相關(guān)投入,以此來提升國家科技及經(jīng)濟(jì)競爭力;
4、聯(lián)邦政府將會制定并推行限制聯(lián)邦機(jī)構(gòu)中可能會滋生AI偏見及風(fēng)險的行政命令。這種舉措可以為公民提供更加完善的服務(wù),并增強(qiáng)AI的安全性;
5、聯(lián)邦政府將不斷加強(qiáng)AI風(fēng)險管理、標(biāo)準(zhǔn)、審計與評估;
6、美國各州及各市可能會采取有針對性的行動。例如,加利福尼亞州可能會通過一項AI法案,以此推動美國AI監(jiān)管環(huán)境的改變,但本報告認(rèn)為,此種可能性較低;
7、全球監(jiān)管環(huán)境可能會因國家之間的貿(mào)易摩擦而出現(xiàn)危機(jī);
8、反壟斷機(jī)構(gòu)會推動防止“大科技”公司主導(dǎo)的AI虛假行為及基于AI的欺詐行為;
9、AI可能將在軍事、智能等領(lǐng)域得到應(yīng)用;
10、科技競爭可能會使美國對于先進(jìn)圖形處理器等AI技術(shù)的出口及對相關(guān)投資的管制逐步擴(kuò)大和延伸。
來源:賽博研究院