繼Master/Slave和黑名單白名單這樣的“涉黑”詞匯被硅谷科技公司“自我審查”后,這場黑人抗議運動對科技業(yè)的影響只是露出了冰山一角。接下來,對”編碼和算法偏見“的追究,才算進入正題。例如,面部識別技術(shù)目前在美國也面臨被封禁的危險,原因倒不是因為隱私,而是因為“種族偏見”。
近日,繼奧克蘭和圣弗朗西斯科等城市之后,美國東海岸最大城市波士頓也宣布將禁止使用面部識別軟件進行監(jiān)視。馬薩諸塞州議員里卡多·阿羅約(Ricardo Arroyo)稱面部識別技術(shù)具有“明顯的種族偏見”。
馬薩諸塞州自由技術(shù)計劃美國公民自由聯(lián)盟(ACLU)主任卡德·克羅克福德(Kade Crockford)告訴Inverse雜志稱:“警察部門使用的監(jiān)控技術(shù)不公平地對待黑人和棕色人種。”“汽車牌照閱讀器、監(jiān)控攝像頭、社交媒體監(jiān)控乃至無人機只是其中的一些例子。”
算法偏見已經(jīng)不是什么秘密了。就像父母將他們毫無節(jié)制和偏見的意見傳給孩子一樣,程序員也有“原罪“,他們會通過他們使用的數(shù)據(jù)和所作的假設(shè)將他們的偏見直接編碼到這些算法中。
盡管偏差可能沒有被有意地編碼到算法中,但是結(jié)果仍然是有害的。在通過面部識別軟件進行種族特征分析時,麻省理工學院的一項研究發(fā)現(xiàn),在識別膚色較黑的人時,這些算法的錯誤率高達35%。該錯誤源于以下事實:這些算法根本沒有經(jīng)過訓(xùn)練,無法識別足夠多的不同面孔的圖像,已經(jīng)導(dǎo)致了底特律的黑人Robert Williams被非法監(jiān)禁。
以波士頓為例,該市警察部門目前尚未使用面部識別軟件,但克羅克福德表示,濫用該技術(shù)的風險太高,無法簡單地等待事件發(fā)生。
波士頓警務(wù)專員威廉·格羅斯( William Gross)說:
很長一段時間以來,包括波士頓警察局在內(nèi)的警察部門都采取了‘先部署,后回答問題’的方法來獲取和使用監(jiān)視技術(shù)。”“但是面部監(jiān)視太危險了。