(文章來源:3D沙蟲網)
隨著人工智能系統(tǒng)的知名度的提高,已經充滿挑戰(zhàn)的網絡安全正變得越來越復雜。在AI和網絡安全相交的地方,如果仍然可以解決潛在的陷阱,則可以更好地服務于整個社會,尤其是國家安全。
首先也是最重要的是AI系統(tǒng)本身的網絡安全性。AI系統(tǒng)很容易受到其他計算機代碼中存在的各種軟件漏洞的影響。正如我們幾十年來所看到的,黑客可以利用這些漏洞來達到自己的目的。沒有理由認為黑客不會嘗試對AI系統(tǒng)做同樣的事情,也沒有理由認為黑客有時不會成功。鑒于某些AI應用程序的風險很高,這種可能性尤其令人擔憂。這不是避免使用AI的理由,但保持網絡安全至關重要。
然而,僅以傳統(tǒng)的軟件漏洞來阻止我們的分析,就是要錯過AI系統(tǒng)帶來的大量網絡安全風險。支持許多現(xiàn)代AI的神經網絡體系結構非常強大,但是卻帶來了我們剛剛開始發(fā)現(xiàn)的新型網絡安全風險。我們稱該領域為對抗學習。
借助對抗性學習,黑客可以使神經網絡犯下奇怪的錯誤,導致依賴于這些網絡的系統(tǒng)發(fā)生故障或泄露機密信息。這是一個需要更多關注的領域。我的同事Jason Matheny是IARPA的前董事,安全與新興技術中心的創(chuàng)始主任,他估計AI研究支出中只有大約1%用于安全性。那簡直太低了。
其次,人工智能還可以改變針對常規(guī)計算機系統(tǒng)的傳統(tǒng)進攻性網絡攻擊?,F(xiàn)代黑客在許多情況下并不需要人工智能來達到目的。就是說,我認為值得一提的是,我們看到了一些最有效的網絡攻擊,包括Stuxnet,2016年烏克蘭的停電以及2017年的NotPetya攻擊造成了至少100億美元的損失-具有某些形式的自動化傳播和攻擊能力。我可以想象一個世界,未來的網絡運營將使用更復雜的自動化功能來完成特定任務,例如漏洞發(fā)現(xiàn),目標選擇,命令和控制以及攻擊執(zhí)行。
我懷疑這樣的自動化可能會給面對復雜目標的老練黑客帶來重大利益。在某些方面,與物理戰(zhàn)相比,該領域自動化的可能性更高。無論飛機是由人還是由人操作,物理定律仍然適用,但是自動化的網絡功能(如果足夠復雜)可能比其以人類為導向的同行運行得快得多。但是,我強調,我們還沒有看到實現(xiàn)這一結果。
這導致了分析的第三個領域:人工智能可能有助于網絡防御的可能性。這個想法也是很多炒作和大量風險投資的主題。人工智能似乎確實可以通過多種方式來幫助保護計算機系統(tǒng)安全,既可以在黑客發(fā)現(xiàn)漏洞之前,也可以在檢測到惡意代碼的存在。但是,我們必須小心,不要讓這方面的炒作超出現(xiàn)實。在評估該領域的網絡安全進步時,我們應該將其與我們已經使用的技術(其中許多已經涉及自動化)的基準進行比較,并了解(如果有的話)人工智能如何改善我們的防御能力。
? ? ?





