本文介紹了2018年擺在人工智能面前的五大難題:理解人類語言,機器人附能,防黑客,玩游戲,辨別是非。如何解決這些問題,讓AI繼續(xù)造福人類社會將成為所有AI從業(yè)者的首要任務(wù)。
2017年,人工智能在深度學(xué)習(xí)的幫助下取得了顯著的進步。例如,一個名為Libratus的機器人撲克玩家,連續(xù)擊敗了三位人類玩家,成為撲克界的“阿爾法狗”。在現(xiàn)實中,AI正在改善很多傳統(tǒng)的行業(yè),自動駕駛、農(nóng)業(yè)、醫(yī)療保健等。
盡管AI的發(fā)展速度有些讓人懷疑,當然AI發(fā)展存在泡沫,各類媒體也在炒作AI。但是仍然有一些明智的聲音:埃隆·馬斯克擔(dān)心人工智能仍然無法做到很多事情。最棘手的有以下幾個問題:
理解人類語言
從現(xiàn)在來看,機器在處理文本和語言方面比以往任何時候都要好。例如:Facebook可以向視障人士進行圖像描述,谷歌郵箱可以對郵件自動做出簡單的回答(基于郵件內(nèi)容進行回復(fù))。然而,AI系統(tǒng)仍然不能真正理解我們的意思和我們真正的想法。波特蘭州立大學(xué)教授梅蘭妮·米切爾(Melanie Mitchell)說:“我們能夠把我們學(xué)到的概念以不同的方式結(jié)合起來,并在新的情況下應(yīng)用。但,AI并不能做到這一點。”
Mitchell將今天AI的缺陷定義為數(shù)學(xué)家Gian Carlo-Rota所說的“意義障礙”,一些領(lǐng)先的AI研究團隊正在試圖找出如何攀登它。
這項工作的一部分是在為機器提供一種常識的基礎(chǔ),以及支撐我們自己思維的物質(zhì)世界。例如,F(xiàn)acebook研究人員正試圖通過觀看視頻來教AI來理解現(xiàn)實。另外一些人,正在模仿我們可以用關(guān)于世界的知識做什么。米切爾已經(jīng)嘗試過使用類比和關(guān)于世界的概念來解釋照片中發(fā)生的事情的系統(tǒng)。
讓機器人更像人機器人硬件已經(jīng)做的相當不錯了,你可以花500美元購買到高清攝像機手掌大小的無人機,另外搬運箱子和兩條腿走路的機器也有所改進。但這并不意味著它可以廣泛使用,因為今天的機器人缺乏匹配他們先進的肌肉的大腦。
讓機器人做任何事情都需要針對特定的任務(wù)進行特定的編程,他可以從中學(xué)習(xí)操作。但是這個過程相對較慢。一個捷徑是讓機器人在模擬的世界中訓(xùn)練,然后把那些來之不易的知識下載到物理的機器人體內(nèi)。然而,這種方法受到了現(xiàn)實差距的困擾,虛擬的機器人在模擬中學(xué)到的技能在轉(zhuǎn)移到物理世界中的機器時并不總是有效。
但,幸運的是現(xiàn)實差距正在縮小。十月份,谷歌模擬的機器人武器學(xué)會拾取包括膠帶分配器、玩具和梳子在內(nèi)的各種物體,從實驗報告中我們看到了希望的結(jié)果。
另外,自動駕駛汽車公司在機動化駕駛競賽中在虛擬街道上部署虛擬車輛,以減少在實際交通和道路條件下測試所花費的時間和金錢。自主駕駛創(chuàng)業(yè)公司Aurora的首席執(zhí)行官Chris Urmson說,使虛擬測試更適用于真實的車輛是他的團隊的重點之一。
防范黑客攻擊AI互聯(lián)網(wǎng)誕生之時,就伴隨著安全問題。我們也不應(yīng)該期望自動駕駛汽車和家用機器人會有所不同。而且事實上可能更糟:因為機器學(xué)習(xí)軟件的復(fù)雜性,所以存在多種攻擊途徑。
今年, 研究表明, 你可以在機器學(xué)習(xí)系統(tǒng)內(nèi)隱藏一個秘密觸發(fā)器, 可以導(dǎo)致系統(tǒng)在看到特定信號時轉(zhuǎn)變?yōu)樾皭耗J?。紐約大學(xué)的研究小組設(shè)計了一個正常運作的街道標志識別系統(tǒng)除非它看到一個黃色的Post-It。在布魯克林的一個停車標志上貼上一個便利貼, 系統(tǒng)就會報告這是一個限速標志。這種做法可能會給自動駕駛汽車帶來問題。
這個威脅被認為是很嚴重的, 世界上最著名的機器學(xué)習(xí)會議的研究人員在本月早些時候召開了為期一天的關(guān)于機器欺騙威脅的研討會。研究人員討論了諸如“如何生成讓人們看起來很正常但是機器開起來比較特殊的手寫數(shù)字”等等這樣的問題。研究人員還討論了防止這種攻擊的可能性, 并擔(dān)心人工智能被用來欺騙人類。
組織研討會的 TIm Hwang 預(yù)測,隨著機器學(xué)習(xí)變得更容易部署和更強大, 使用這項技術(shù)來操縱人是不可避免的。他說,機器學(xué)習(xí)并不再是博士學(xué)位的專屬。TIm Hwang指出, 俄羅斯在2016年總統(tǒng)選舉期間發(fā)起的假情報運動可能是AI增強信息戰(zhàn)爭的先驅(qū)。他說:為什么不在這些活動中看到機器學(xué)習(xí)領(lǐng)域的技術(shù)?Hwang 預(yù)測的一個特別有效的方法是利用機器學(xué)習(xí)來生成虛假的視頻和音頻。
AI游戲真正的未來在哪?AlphaGo在2017年也迅速發(fā)展,今年五月,一個更強大的版本擊敗了中國的圍棋冠軍。它的創(chuàng)造者DeepMind研究院, 隨后又升級了一個版本:AlphaGo Zero,這個版本不用研究人類的棋譜,也能有非凡的下棋技巧,基于此它也學(xué)會了下國際象棋和日本象棋。
人類與AI游戲的結(jié)果是令人印象深刻,但也提醒我們?nèi)斯ぶ悄苘浖木窒扌?。國際象棋、日本象棋和圍棋都很復(fù)雜,但是其規(guī)則和玩法卻比較簡單。它們很好的利用了計算機的能力,可以快速枚舉許多未來可能的位置。但是,生活中的大多數(shù)情況和問題并不是那么有“結(jié)構(gòu)性”。
這就是為什么 DeepMind 和 Facebook 都在2017年開始研發(fā)玩星際爭霸( StarCraft)的AI。
但是目前都還沒有獲得很好的成果。目前,即使是表現(xiàn)最好的AI機器人的游戲水平也無法和一般水平的人類玩家所匹敵。DeepMind研究員 Oriol Vinyals 告訴《連線》雜志,他的軟件現(xiàn)在缺乏組織和指揮軍隊所需的計劃和記憶能力,同時對敵方行動進行預(yù)測和反應(yīng)的能力也不夠強。這些技能還可以使AI在現(xiàn)實任務(wù)協(xié)作方面做得更好, 例如辦公室工作或真正的軍事行動。如果2018年AI版的“星際爭霸”取得重大的進展,那么將預(yù)示著人工智能將產(chǎn)生一些更強大的應(yīng)用。
讓AI辨別是非AI即使在上述領(lǐng)域沒有取得新的進展,如果現(xiàn)有的AI技術(shù)被廣泛使用,社會和經(jīng)濟的許多方面也會發(fā)生很大的變化。這個時候就會有人擔(dān)心人工智能和機器學(xué)習(xí)造成的意外和故意傷害。
在本月的NIPS機器學(xué)習(xí)大會上,如何讓技術(shù)保持在安全和道德的范圍內(nèi)是一個重要的討論話題。研究人員發(fā)現(xiàn),機器學(xué)習(xí)系統(tǒng)可以從我們非完美的世界獲得數(shù)據(jù)的訓(xùn)練,進而訓(xùn)練出來的系統(tǒng)是具有偏見性的,如延續(xù)性別歧視印象?,F(xiàn)在有些人正在研究可用于審核人工智能系統(tǒng)內(nèi)部運作的技術(shù),并確保他們在投入金融或醫(yī)療保健等行業(yè)工作時做出公平的決定。
未來我們應(yīng)該會看到科技公司提出如何讓人工智能擁有人性的想法。谷歌、Facebook、微軟和阿里已經(jīng)開始討論這個問題,一個名為“人工智能基金倫理與治理”的慈善項目正在支持麻省理工學(xué)院,哈佛大學(xué)等研究人工智能,紐約大學(xué)的一個新研究機構(gòu)AI Now也有類似的任務(wù)。在最近的一份報告中呼吁各國政府不要在刑事司法或社會福利等領(lǐng)域使用“黑匣子”算法。





