自駕車系統(tǒng)也有“種族歧視”? 背后的原因是這樣的
《Business Insider》報(bào)導(dǎo),美國喬治亞理工學(xué)院最新研究顯示,自駕車系統(tǒng)在識(shí)別路人時(shí),可能較容易識(shí)別膚色白的人,研究人員認(rèn)為,這樣的差異是因?yàn)樵谟?xùn)練這些系統(tǒng)時(shí),使用的黑皮膚人種的照片不夠多。
針對(duì)這次的研究,研究人員使用了8種圖像偵測(cè)系統(tǒng)(image-detection system)來分析行人,照片里的行人被依照菲茲派崔克膚色(Fitzpatrick skin type scale)分為兩類,一類膚色較白,一類膚色較黑。
接著,研究人員一一測(cè)試這些系統(tǒng)識(shí)別行人的能力,再比較圖片中的膚色較白的行人與膚色較黑的行人被偵測(cè)出來的比例,平均看來,這些系統(tǒng)識(shí)別膚色較黑的行人的準(zhǔn)確度,比識(shí)別白人來的低5%,即使控制了其他可能影響到調(diào)查結(jié)果的因素,結(jié)果仍然沒有改變。
然而,由于這項(xiàng)研究使用的系統(tǒng)并非實(shí)際上自駕車所使用的系統(tǒng),也沒有使用自駕車制造商訓(xùn)練系統(tǒng)所用的數(shù)據(jù)集,外媒《Vox》認(rèn)為不應(yīng)該輕信這次的研究結(jié)果。因?yàn)楣静粫?huì)公開發(fā)表自己的訓(xùn)練數(shù)據(jù),所以研究人員使用的系統(tǒng)是學(xué)術(shù)模型,并且使用可供公眾取得的數(shù)據(jù)集來訓(xùn)練系統(tǒng)。
但這并不代表這個(gè)研究沒有價(jià)值,其中一位參與研究的學(xué)者Kate Crawford在推特上表示,在理想情況下,學(xué)者應(yīng)該要使用自駕車廠商所用的模型以及訓(xùn)練步驟來進(jìn)行測(cè)驗(yàn),但這件事本身不可能實(shí)行。無論如何,這次的研究還是為實(shí)際存在的風(fēng)險(xiǎn)提供了深刻見解。
根據(jù)《Vox》報(bào)導(dǎo),研究指出了人類的偏見可能也會(huì)導(dǎo)致自動(dòng)決策系統(tǒng)產(chǎn)生偏頗,造成算法偏見(algorithmic bias)。由于演算系統(tǒng)是通過接收到的范例來學(xué)習(xí),如果在學(xué)習(xí)階段沒有得到足夠的范例,真正運(yùn)用時(shí)系統(tǒng)就無法識(shí)別他們。
《Vox》認(rèn)為,對(duì)自駕車公司來說,最有利的方式就是盡可能的解決種族歧視問題,以免人們被迫承受一切傷害。





