2015年,一名黑人軟件開發(fā)人員在Twitter上說,谷歌的照片服務(wù)(Google Photos)把他和一個黑人朋友的照片打上了“大猩猩”的標簽,這讓谷歌感到非常尷尬。谷歌宣稱自己“感到震驚和由衷的歉意”。一名相關(guān)的工程師表示,谷歌正在“研究更長期的解決方案”。
兩年多之后,谷歌給出的其中一項修復措施就是將大猩猩和其他靈長類動物的標簽從該服務(wù)的詞庫中刪除。這一尷尬的變通方案表明,谷歌和其他科技公司在推進圖像識別技術(shù)方面仍舊面臨著諸多困難,盡管這些公司希望能夠在自動駕駛汽車、個人助理和其他產(chǎn)品上使用這些技術(shù)。
《連線》雜志用4萬張圖片對谷歌照片服務(wù)進行了測試,這些照片中有很多動物。谷歌照片在尋找包括熊貓和貴賓犬在內(nèi)的許多動物上表現(xiàn)得非常棒。但當使用“大猩猩”、“黑猩猩”和“猴子”等詞進行搜索時,谷歌照片反饋稱“沒有結(jié)果”。
在谷歌照片服務(wù)中, 谷歌對“大猩猩”、“黑猩猩”和“猴子”等詞的搜索進行了審查。
作為一款移動應用和網(wǎng)站,谷歌照片為5億用戶提供了管理和備份個人照片的地方。它使用機器學習技術(shù),自動將照片進行分組,比如湖泊或拿鐵。同樣,用戶也可以利用該技術(shù)對他們的照片進行搜索。
在《連線》雜志的測試中,谷歌照片確實識別出了一些靈長類動物。 使用“狒狒”、“長臂猿”、“狨猴”和“猩猩”等詞進行搜索,結(jié)果都還不錯。只要搜索時使用術(shù)語而不是使用M開頭的詞語, 就可以找到卷尾猴和疣猴。
在另一項測試中,《連線》上傳了20張黑猩猩和大猩猩的照片,這些黑猩猩和大猩猩來自非營利組織“黑猩猩天堂”和“黛安 · 福西研究所”(Diane Fossey InsTItute)。有些猩猩可以用使用“森林”、“叢林”或“動物園”等關(guān)鍵詞來搜索到,但事實證明,其余的都很難被發(fā)現(xiàn)。
結(jié)論是:在谷歌照片中,狒狒是狒狒,但猴子不是猴子。大猩猩和黑猩猩是不可見的。
智能手機上的谷歌Lens應用,也無法識別出來大猩猩。
在第三次測試中,《連線》雜志上傳了一組1萬多張用于面部識別研究的圖片。用“非洲裔美國人”這個詞進行搜索,最后只出現(xiàn)了一幅羚羊的畫面。輸入“黑人男性”、“黑人女性”或“黑人”,谷歌的系統(tǒng)會返回黑白圖像,按照性別正確排序,但不被種族過濾。對于膚色較深的人來說,可以使用“非洲式”(afro)和“非洲人”(African)等詞進行搜索,盡管結(jié)果好壞參半,并不那么準確。
谷歌的一位發(fā)言人證實,在2015年的事件發(fā)生后,“大猩猩”就從搜索和圖片標簽中刪除了,直到今天“猩猩”、“黑猩猩”和“猴子”等標簽仍在屏蔽中。該發(fā)言人在電子郵件中寫道:“圖像標簽技術(shù)還處于早期階段,但不幸的是,它還遠遠不夠完美。”他強調(diào)了谷歌照片的一個功能,即允許用戶報告錯誤。
谷歌對大猩猩圖片的謹慎處理,說明了現(xiàn)有的機器學習技術(shù)上的一個不足之處。有了足夠的數(shù)據(jù)和計算能力,軟件就可以被訓練,可以用來對圖像進行分類,或者在較高的精確度下對語音進行轉(zhuǎn)錄。但它無法輕易超越這種從訓練中得出的經(jīng)驗。即使是最優(yōu)秀的算法,也缺乏像人類那樣運用常識或抽象概念的能力,來完善它們對世界的詮釋。
因此,機器學習工程師在現(xiàn)實世界中部署他們的成果時,必須對他們的訓練數(shù)據(jù)中沒有發(fā)現(xiàn)的“邊緣案例”保持警惕。維吉尼亞大學教授維恩特·奧達尼斯·羅梅恩(Vicente ord ez rom n)說:“你的系統(tǒng)一旦開始上線運行,你就很難再對它進行建模。”去年,他參與了一項研究,該研究表明,應用于圖像的機器學習算法可以識別并放大人們對不同性別之間的偏見。
谷歌照片用戶上傳的照片是在各種不完美的條件下拍攝的??紤]到數(shù)據(jù)庫中的圖片數(shù)量,將一種類型的“類人猿”誤認成另一種類型的可能性極小。
谷歌母公司Alphabet和更廣泛的科技行業(yè)面臨著更大的風險,比如應用在自動駕駛汽車上。羅曼(Román)和他的同事、軟件可靠性專家拜沙希·雷(Baishakhi Ray)一起,正在探索如何限制視覺系統(tǒng)在自動駕駛汽車等場景中可能的誤判行為。雷說,這方面已經(jīng)取得了一些進展,但目前還不清楚如何能夠很好地控制這些系統(tǒng)的局限性。“我們?nèi)匀徊荒芊浅>唧w地知道這些機器學習模型正在學習什么,”她說。





