隨著人工智能的炒作階段逐漸結(jié)束,工程師和研究人員都在發(fā)現(xiàn)我們所知道和不知道的關(guān)于人工智能的巨大但迄今為止尚未實現(xiàn)的承諾。
顯然,懷疑論者警告說,在進入以人工智能為中心的未來之前,我們需要進行觀察、測試和驗證。因此,越來越多的意識和研究集中在“人工智能安全”等新興學(xué)科,這些學(xué)科旨在識別并最終預(yù)測機器學(xué)習(xí)和其他自主系統(tǒng)中意外行為的原因。
一些早期步驟將有所幫助,包括最近的一項美國監(jiān)管命令,要求強制報告涉及 ADAS 車輛的事故。(我們注意到“崩潰”而不是“意外”,在這種情況下,這是一個令人擔(dān)憂的術(shù)語,因為它是無罪的。)
在這個 AI 特別項目中,我們研究了將機器的控制權(quán)委托給算法所面臨的工程挑戰(zhàn)和意外后果。一個結(jié)論是,我們距離在必須在 99.999% 的時間內(nèi)工作的關(guān)鍵任務(wù)系統(tǒng)中使用人工智能還有很長的路要走。
要達到這樣的可靠性、安全性以及最終的信任水平,需要不懈的測試、技術(shù)標(biāo)準(zhǔn)以及喬治城大學(xué)安全與新興技術(shù)中心的研究員 Helen Toner 所說的“工程學(xué)科”。
另一個問題是隨著設(shè)計人工智能芯片的公司數(shù)量激增,稀缺工程資源的分配。最新的是特斯拉,它在最近的AI Day 活動中推出了用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)的 Dojo D1 芯片。雖然加速 ADAS 應(yīng)用程序的神經(jīng)網(wǎng)絡(luò)訓(xùn)練確實是一項要求,但這家垂直整合的汽車制造商的 AI 芯片似乎是出于對所有權(quán)的自豪感。
“有這么多公司在制造人工智能芯片,為什么要自己制造?” Tirias Research 首席分析師 Kevin Krewell 指出。Krewell 補充說,越來越多的公司獨立致力于將人工智能應(yīng)用于自動駕駛,這相當(dāng)于“驚人”數(shù)量的重復(fù)和浪費。
汽車應(yīng)用正在推動人工智能技術(shù)的極限,并且可能是最先在危險環(huán)境中部署機器學(xué)習(xí)模型的應(yīng)用之一。然而,在此之前,這些機器必須盡可能地接近工程師可以做到的萬無一失。
正如專家所指出的,人工智能的流行概念意味著該技術(shù)類似于人類智能。正如我們在下面討論的那樣,在工程師能夠讓機器灌輸幼兒基于現(xiàn)實世界的反復(fù)試驗所學(xué)的常識之前,人工智能仍然是一個誤稱。
因為當(dāng)下很多的AI項目的價值只能體現(xiàn)在一些“點對點”的一次性的方案中。也就是說,很少有看到有AI大規(guī)模的落地。這件事情的難度在于,除了傳統(tǒng)在應(yīng)用開發(fā)上會遇到的DevOps的挑戰(zhàn),在AI的項目里面還有兩個比較復(fù)雜的模塊,數(shù)據(jù)(DataOps)和模型(ModelOps)。因此AI工程化并不只是一個技術(shù)問題,更是一個管理體系方法的問題。
“美國有一家醫(yī)療機構(gòu)叫‘凱撒醫(yī)療’,這家醫(yī)療機構(gòu)試圖用計算機視覺的方式,來對患有皮膚病的人群進行分類,并接受遠程診療,但一開始并沒有成功?!眲P撒醫(yī)療初期沒有成功的原因在于,因為隱私保護的原因,他們無法獲得足夠的真實數(shù)據(jù)進行AI建模,而是采用了教科書中的高清照片作為訓(xùn)練數(shù)據(jù)。由于訓(xùn)練模型的數(shù)據(jù)和真實的世界出現(xiàn)了脫節(jié),導(dǎo)致模型上線后效果不佳。
最后,凱撒醫(yī)療采取的辦法是讓病人對自己皮膚患處拍一個5秒鐘的視頻去上傳。我們知道,每秒鐘視頻默認情況下有30張照片,因此醫(yī)院在幾乎沒有增加成本的情況下把輸入數(shù)據(jù)增加了150倍,最終讓這個“不完美”的AI模型達到了可以接受的分類效果。
凱撒醫(yī)療的例子其實是證明,在“AI工程化”的路途中,有許多的實踐檢驗、方法、流程是需要注意的,這些方法論的形成才有可能真正地讓AI算法、已有的數(shù)據(jù)發(fā)揮價值和作用。





