大約從五年前開始,每個人都在談論物聯(lián)網(wǎng)(IoT)以及它將如何經(jīng)由數(shù)億臺裝置互連來改變一切。我們似乎周而復始地經(jīng)歷一項新技術被大肆宣傳的循環(huán),如今輪到人工智能(AI)了。
在我大約33年來的電子產(chǎn)業(yè)與半導體職業(yè)生涯中,我看到了技術革命的三大變化。首先是微處理器時代,然后是互聯(lián)網(wǎng),接著是行動時代。而今,就像新思科技(Synopsys)共同首席執(zhí)行官Aart de Geus最近所說的:“現(xiàn)在是AI時代!”他并在日前的一場活動中提到,AI將推動半導體產(chǎn)業(yè)在未來幾十年的發(fā)展,因為大數(shù)據(jù)(big data)需要機器學習,而機器學習需要更多運算,這些都將產(chǎn)生更多的數(shù)據(jù)。
的確,AI如今正處于市調(diào)公司Gartner所謂“炒作期”(hype cycle)的上升階段,但它似乎又不同于之前引進新技術的情況:我從未見過一項技術引發(fā)這么多關于倫理道德的爭辯。AI將會改變許多事情,自動駕駛車、軍用和工業(yè)無人機、機器人,以及在醫(yī)療、政府和城市功能等領域的其他許多應用都可能受到影響。
2017年版Gartner新技術成熟度曲線
英國政府日前發(fā)布了一份長達183頁的《英國AI發(fā)展現(xiàn)況調(diào)查》(AI in the UK: ready, willing and able?)報告,涵蓋許多有關AI系統(tǒng)的責任、監(jiān)管與倫理道德等議題,以及在AI研究與商業(yè)化應用方面的創(chuàng)新、投資與技巧等其他主題。
英國上議院特別委員會主席Lord Clement-Jones說:“英國有著領先的AI公司、充滿活力的學術研究文化、活躍的創(chuàng)業(yè)生態(tài)系統(tǒng),以及大量的法律、道德、金融和語言優(yōu)勢。我們應該充份利用這樣的環(huán)境優(yōu)勢,但關鍵在于必須以道德準則作為發(fā)展AI的關注重點。”
Jones說:“AI并非沒有風險,委員會提出的道德原則將有助于減輕這些風險。道德方法確保大眾相信這項技術并且看到使用它的好處,同時也使其準備好質(zhì)疑技術是否遭到濫用。我們要確保這個國家仍然是研究和開發(fā)這項新技術的前哨站。不過,新創(chuàng)公司可能很難自行擴大規(guī)模。”
在該委員會的報告中,許多建議均指出AI需要透明化。當AI被用來做出重大或敏感的決策時,應該建立一個自發(fā)性機制來告知消費者。該報告并指出,當AI系統(tǒng)故障或?qū)τ脩粼斐蓚r,現(xiàn)行法律是否足以明確相關責任,目前并不清楚,因此,該領域亟需盡快明確責任歸屬。
讓AI透明化
AI系統(tǒng)能夠透明且易于理解嗎?是否存在一定的技術透明度,讓人們能針對系統(tǒng)為什么作出某一項特定決定提出質(zhì)疑?
業(yè)界對此以及AI系統(tǒng)的問責制都有詳細討論。在許多深度學習系統(tǒng)中,透過許多不同的處理層饋送信息并得出最終解答或決定,可能會讓系統(tǒng)看起來像“黑盒子”,即使是其開發(fā)人員也不一定都能夠確定哪些因素導致系統(tǒng)決定其中一項比另一項更重要。
輝達(Nvidia)歐洲、中東、非洲(EMEA)解決方案架構(gòu)和工程團隊總監(jiān)Timothy Lanfear提出了另一種看法。他說,機器學習算法通常比傳統(tǒng)的軟件編碼更短、更簡單,因此在某些方面也更容易理解與偵測。“我們每天都在使用那些復雜到無法吸收的系統(tǒng)。AI并沒什么不同。它也處于一種無法完全理解的復雜程度。然而,你唯一能做的是把它分解成片段,找到測試它的方法,然后檢查它是否按你期望的方式進行,如果不是的話,就采取行動。”
該委員會坦承,要達到技術上的完全透明化相當困難,對于某些AI系統(tǒng)來說甚至是不可能的,特別是在某些情況下甚至并不適用。然而,在一些安全關鍵的場景中,技術必須是透明的。在這些領域的監(jiān)管機構(gòu)必須有權強制使用更透明的AI技術。
英國AI委員會在其報告中還提到,“我們認為部署任何可能對個人生活造成潛在影響的AI系統(tǒng)都是不被接受的,除非它能對自己所做的決定提出充份且令人滿意的解釋。例如對于像深度神經(jīng)網(wǎng)絡(DNN)等無法為其決定產(chǎn)生完全解釋的情況,可能意味著必須延遲某些特定用途的部署,直到找到替代解決方案。”
致力于開發(fā)全堆棧自動駕駛車功能的英國自駕車新創(chuàng)公司FiveAI首席執(zhí)行官Stan Boland并不認同該報告中提出AI系統(tǒng)存在的黑盒子現(xiàn)象。他說:“我們的系統(tǒng)是完全模塊化的,這對于解釋和除錯系統(tǒng)以提升技術和服務來說非常關鍵。任何系統(tǒng)在實際上路之前都必須經(jīng)過多次獨立驗證。”
他補充說,全世界采用自動駕駛的方各不相同,“例如,在英國倫敦(London)和美國山景城(Mountain View)就有不同的運作方式。每個城市由于生活方式和環(huán)境條件不同,自動駕駛系統(tǒng)的模式也各異其趣。對我們來說,重點在于打造出符合歐洲客戶需求的解決方案。”
各國加碼投資AI
英國政府的這份報告也為全球的AI研發(fā)提供另一個視角。根據(jù)高盛(Goldman Sachs)的數(shù)據(jù)顯示,在2012年第1季到2016年第2季之間,美國對于AI的投資達到了182億美元,中國大陸和英國分別是26億美元和8.5億美元。隨著中國大陸致力于成為AI的全球領導者,預計到2030年,在其發(fā)展AI生態(tài)系統(tǒng)方面的投資將上看1,500億美元。
有鑒于現(xiàn)有資源的差異性,英國在AI領域的投入規(guī)??赡鼙炔簧现?、美。德國和加拿大則有更多的比較性。德國的AI策略受其打造旗艦級工業(yè)4.0策略影響頗深。其策略探索以AI提升智能制造的過程,并產(chǎn)出整合AI功能的智能商品,例如冰箱和汽車。而加拿大的AI策略則較不專注于為特定領域開發(fā)AI,但該國政府已經(jīng)拿出1.25億美元成立了三座新的AI研究所,并吸引更多來自全球的AI研究人員。
處理器瓶頸?
過去十年來,盡管深度學習在AI的進展中扮演了重要角色,但它也存在一些問題。深度學習需要大量的數(shù)據(jù)集,這極難取得且費用昂貴,而且還需要大量的處理能力。該報告中提到,盡管深度學習近來隨著處理能力提高而明顯進步,但摩爾定律(Moore’s law)開始面臨挑戰(zhàn),處理能力提高帶動降價的腳步開始放緩。諸如量子運算等創(chuàng)新也還無法使其復蘇或加速,不過現(xiàn)在還為時尚早,未來還有很多的不確定性。
深度學習先驅(qū)Geoff Hinton提出了深度學習革命可能很快結(jié)束的警告。其他人的看法則較樂觀,特別是由于各種客制AI芯片的出現(xiàn),如Google的張量處理器(TPU),以及量子運算的進展,都為深度學習的未來提供了新的發(fā)展動能。
犯罪濫用與監(jiān)管
該報告并深入探索犯罪濫用、監(jiān)管和創(chuàng)新等領域。在“對抗式AI”(adversarial AI)領域,研究人員有效掌握AI系統(tǒng)如何運作,并試圖瞞過其他AI系統(tǒng)做出錯誤的分類或決定。特別是影像識別系統(tǒng)經(jīng)證實極易于受到這一類型的攻擊。例如,研究人員可以巧妙地稍加改變圖片或甚至是3D模型或標志,使其看起來與原始影像毫無區(qū)別,但仍瞞過AI系統(tǒng)將它們識別為完全不同的對象。
其他例子還包括利用虛假影像讓車子發(fā)生碰撞、突然停止,或觸發(fā)自動武器發(fā)射等。當然,這些情況也可能發(fā)生在非機器學習的系統(tǒng)(人類決策者亦然),不過,使用非機器學習方法可以對所涉及的推論進行詢問、恢復和除錯,而許多機器學習系統(tǒng)則無法做到這些。
在監(jiān)管方面,該報告指出中國大陸“雖然在技術應用方面的法規(guī)不夠完善,但卻從另一方面推動了更快的實驗和創(chuàng)新,包括對于數(shù)據(jù)的利用和AI技術等方面。”
公司和組織在違反規(guī)定時將面臨的責任程度也包括在內(nèi)。Nvidia的Lanfear說,雖然公司員工知道其道德原則以及如何遵守規(guī)定,但他坦承并不容易回答這個問題,因為“作為技術專家,這并不是我的核心思想。”對此,很多人都和Lanfear有同樣的感受。因此,必須找到一些機制以確保目前的道德準則趨勢不只是簡單地轉(zhuǎn)化為無意義的黑盒子作業(yè)。
如今,我們所擁有的AI技術可用于推動下一波基于高端AI處理器與芯片的運算進展。但是,盡管半導體和運算產(chǎn)業(yè)不斷挑戰(zhàn)極限,業(yè)界最終將會決定該技術在現(xiàn)實世界的應用有多大——我們總是在看到自動駕駛車發(fā)生傷亡事件后,才能聽見社會的抗議聲浪。而關于AI道德標準的討論與爭議,將有助于我們思考技術該如何安全且有效地部署,以及最終可被社會接受和采納。





