斯蒂芬·霍金、馬斯克等人曾在國際人工智能聯(lián)席會議上,支持通過禁止不受人類有意識控制的進攻性自主武器,來阻止人工智能武備競賽的提議。筆者認同他們的觀點,也以為在必要時應簽署一個公約來約束人工智能軍事化。
人類今天要捍衛(wèi)自己,可利用的武器已經(jīng)太多了,對于核武器的管控早已是大題目,我們并不需要在常規(guī)武器之外,還把人工智能用于武器。
人工智能最大的價值在于低本錢、高效率、密集性,通過大數(shù)據(jù)、智能學習迅速晉升其能力。人類對人工智能的掌握和控制力又是薄弱和未知的。今天已經(jīng)有大量的無人機、智能機器人被用于軍事步履,而未來所謂“不需要人類干涉干與就能選擇目標和交戰(zhàn)的武器”,對于人類社會產(chǎn)生的威脅變得不可預知。表面上,這些智能機器人或是無人機作戰(zhàn),會減少士兵的傷亡,但是這些智能機器人和無人機的攻擊對象是誰?主要仍是人類。
人工智能武器最復雜的題目,在于它的廉價與不可控。不像核武器制造需要極高的技術,很難獲得的原料以及高昂本錢。人工智能武器便于大規(guī)模出產(chǎn),并通過多種渠道暢通流暢。最近我們已經(jīng)看到在敘利亞戰(zhàn)場泛起了由民用無人飛機改造而成,攜帶了榴彈攻擊型的無人機,一架無人機和一支步槍的價格相近,可以大批量出產(chǎn),很輕易獲得。
人工智能武器的不可控性還在于,即使由技術大國出產(chǎn)出不需要人類干涉干與就能選擇目標和交戰(zhàn)的武器,但這類武器受人類控制的可能性是未知的,在大量人工智能參與,擁有了強盛的學習能力之后,它會怎么選擇攻擊目標,我們全無所聞,無人能保證它會被有效控制,不會人為復制。
因此,在人工智能武器還沒成為下一個“原槍彈”之時,大國首先需要擔起責任,在國際上形成一個類似于禁止化學和生物武器國際協(xié)定一樣的公約,禁止把人工智能用于軍事,而不能單靠科學界的“良心”。假如有一天,大量小型、低本錢、不可控的殺人機器泛濫成災,甚至泛起人工智能武器逃避人類監(jiān)管的情況,再談治理和控制已經(jīng)太晚了





