压在透明的玻璃上c-国产精品国产一级A片精品免费-国产精品视频网-成人黄网站18秘 免费看|www.tcsft.com

“面部識別”屬于種族偏見技術(shù)?

繼Master/Slave和黑名單白名單這樣的“涉黑”詞匯被硅谷科技公司“自我審查”后,這場黑人抗議運動對科技業(yè)的影響只是露出了冰山一角。接下來,對”編碼和算法偏見“的追究,才算進入正題。例如,面部識別技術(shù)目前在美國也面臨被封禁的危險,原因倒不是因為隱私,而是因為“種族偏見”。

近日,繼奧克蘭和圣弗朗西斯科等城市之后,美國東海岸最大城市波士頓也宣布將禁止使用面部識別軟件進行監(jiān)視。馬薩諸塞州議員里卡多·阿羅約(Ricardo Arroyo)稱面部識別技術(shù)具有“明顯的種族偏見”。

馬薩諸塞州自由技術(shù)計劃美國公民自由聯(lián)盟(ACLU)主任卡德·克羅克福德(Kade Crockford)告訴Inverse雜志稱:“警察部門使用的監(jiān)控技術(shù)不公平地對待黑人和棕色人種。”“汽車牌照閱讀器、監(jiān)控攝像頭、社交媒體監(jiān)控乃至無人機只是其中的一些例子。”

算法偏見已經(jīng)不是什么秘密了。就像父母將他們毫無節(jié)制和偏見的意見傳給孩子一樣,程序員也有“原罪“,他們會通過他們使用的數(shù)據(jù)和所作的假設(shè)將他們的偏見直接編碼到這些算法中。

盡管偏差可能沒有被有意地編碼到算法中,但是結(jié)果仍然是有害的。在通過面部識別軟件進行種族特征分析時,麻省理工學院的一項研究發(fā)現(xiàn),在識別膚色較黑的人時,這些算法的錯誤率高達35%。該錯誤源于以下事實:這些算法根本沒有經(jīng)過訓(xùn)練,無法識別足夠多的不同面孔的圖像,已經(jīng)導(dǎo)致了底特律的黑人Robert Williams被非法監(jiān)禁。

以波士頓為例,該市警察部門目前尚未使用面部識別軟件,但克羅克福德表示,濫用該技術(shù)的風險太高,無法簡單地等待事件發(fā)生。

波士頓警務(wù)專員威廉·格羅斯( William Gross)說:

很長一段時間以來,包括波士頓警察局在內(nèi)的警察部門都采取了‘先部署,后回答問題’的方法來獲取和使用監(jiān)視技術(shù)。”“但是面部監(jiān)視太危險了。

上一篇:入侵LinkedIn的俄羅斯黑客被判刑,哈薩克斯坦頭號黑客繼續(xù)逍遙法外

下一篇:可信云線上峰會丨 安全責任誰來擔?《云計算安全責任共擔白皮書》精確解析