繼Master/Slave和黑名單白名單這樣的“涉黑”詞匯被硅谷科技公司“自我審查”后,這場黑人抗議運動對科技業的影響只是露出了冰山一角。接下來,對”編碼和算法偏見“的追究,才算進入正題。例如,面部識別技術目前在美國也面臨被封禁的危險,原因倒不是因為隱私,而是因為“種族偏見”。
近日,繼奧克蘭和圣弗朗西斯科等城市之后,美國東海岸最大城市波士頓也宣布將禁止使用面部識別軟件進行監視。馬薩諸塞州議員里卡多·阿羅約(Ricardo Arroyo)稱面部識別技術具有“明顯的種族偏見”。
馬薩諸塞州自由技術計劃美國公民自由聯盟(ACLU)主任卡德·克羅克福德(Kade Crockford)告訴Inverse雜志稱:“警察部門使用的監控技術不公平地對待黑人和棕色人種。”“汽車牌照閱讀器、監控攝像頭、社交媒體監控乃至無人機只是其中的一些例子。”
算法偏見已經不是什么秘密了。就像父母將他們毫無節制和偏見的意見傳給孩子一樣,程序員也有“原罪“,他們會通過他們使用的數據和所作的假設將他們的偏見直接編碼到這些算法中。
盡管偏差可能沒有被有意地編碼到算法中,但是結果仍然是有害的。在通過面部識別軟件進行種族特征分析時,麻省理工學院的一項研究發現,在識別膚色較黑的人時,這些算法的錯誤率高達35%。該錯誤源于以下事實:這些算法根本沒有經過訓練,無法識別足夠多的不同面孔的圖像,已經導致了底特律的黑人Robert Williams被非法監禁。
以波士頓為例,該市警察部門目前尚未使用面部識別軟件,但克羅克福德表示,濫用該技術的風險太高,無法簡單地等待事件發生。
波士頓警務專員威廉·格羅斯( William Gross)說:
很長一段時間以來,包括波士頓警察局在內的警察部門都采取了‘先部署,后回答問題’的方法來獲取和使用監視技術。”“但是面部監視太危險了。