人工智能的道德標(biāo)準(zhǔn):機器人應(yīng)該被允許投票嗎?
機器人達(dá)到奇點并變得比我們聰明時,那么它們就會超出我們的控制。如果他們的程序中沒有被編入道德準(zhǔn)則,那么他們很可能會終結(jié)我們。這就造成了各種各樣的問題。如何為道德編程?程序員眼中的道德是什么?如果機器人需要一個道德規(guī)范,誰來決定這個道德規(guī)范是什么?
當(dāng)你在2018年與一名數(shù)字客戶助理交談時,你可能會覺得自己和一個人在說話。到2029年,機器人可能會比我們聰明。雖然人工智能的想法令人興奮,但我們?nèi)匀徊磺宄斯ぶ悄茉谌粘I钪袝a(chǎn)生多大的影響。與人們談到人工智能時,有人表示他們非常向往悠閑的生活,因為機器人會替他們完成所有繁重的工作。而另外一些人則暗暗地告訴你,機器人注定要奴役我們。
對許多人來說,我們之所以減緩對能獨立思考的機器人的追求,很可能源于我們對未知的恐懼(以及所有那些終結(jié)者電影)。但如果你曾經(jīng)用過自助付賬,和Siri說過話,或者看過Netflix的視頻,那么你就已經(jīng)在和人工智能互動了。自動駕駛汽車、無人駕駛飛機和護理機器人很快將成為生活中正常的一部分。
奇點來臨
當(dāng)機器的智能超越人類的智力的時,則被稱為奇點。但是如果機器人決定不需要人類的控制時會發(fā)生什么呢?
在《Futurescape with James Woods》的第二集中,首先出現(xiàn)的是一個機器人走向投票站。在抗議者的簇?fù)硐?,她的眼睛掃視著一個戴著徽章的男人,上面寫著:“沒有靈魂就沒有投票權(quán)!”
Woods說道:“人們認(rèn)為機器人投票很荒謬。正如我們所知道的,人們對1870年的黑人和20世紀(jì)初的婦女也有同樣的看法。我們目前還不會給程控機器人公民權(quán)利。因為他們不能像我們一樣思考。但是現(xiàn)在,這些界限已經(jīng)模糊了。每天我們都越來越接近人類和機器真正融合并重新定義人類的意義的那一天。”
人類和機器的區(qū)別是什么呢?機器是可編程的,其修理也是機械的。我們也相信人類有思想,有靈魂,有自由意志。但是,一些科學(xué)家認(rèn)為,總有一天,我們會發(fā)現(xiàn)大腦如何真正工作的線路,并最終消除人類和機器人之間最后的屏障。
加州大學(xué)洛杉磯分校已經(jīng)開始做這方面的研究。Arthur Toga博士正在繪制人腦中神經(jīng)元之間的聯(lián)系,這將給我們呈現(xiàn)出大腦的全貌。這不僅幫我們識別人類的錯誤布線,而且也能解密那些使我們?nèi)祟惇氁粺o二的特殊事物。
獲得意識
為了感受情感,機器人必須能夠具有意識。
未來學(xué)家Ray Kurzweil認(rèn)為,機器人將在2029年獲得意識,他指出,目前對人類大腦的研究表明,神經(jīng)元之間的聯(lián)系是實時的。盡管科學(xué)家可以看到我們的大腦創(chuàng)造出的想法,但是想要在機器人中復(fù)制這種想法并不是合理的。由于這個原因,“機器人道德”的概念正吸引著來自神學(xué)、法律、心理學(xué)、倫理學(xué),人權(quán)和哲學(xué)的學(xué)者們。
超人工智能
Stephen Hawking也談到人工智能,他警告稱,“超人工智能”可能與人類的末日一樣,而且持有類似觀點的專家也越來越多。Steve Wozniak和Bill Gates警告說,機器人可能會威脅到我們的生存。當(dāng)機器人達(dá)到奇點并變得比我們聰明時,那么它們就會超出我們的控制。如果他們的程序中沒有被編入道德準(zhǔn)則,那么他們很可能會終結(jié)我們。這就造成了各種各樣的問題。如何為道德編程?程序員眼中的道德是什么?如果機器人需要一個道德規(guī)范,誰來決定這個道德規(guī)范是什么?
其中一個答案是直接將行為規(guī)則編程到機器人的軟件中??梢允蔷唧w的規(guī)則(如《十誡》),也可以是理論如功利主義。重要的是,這些機器人一旦被賦予硬編碼指南,那么這些指南就可以作為機器人所有決策的基礎(chǔ)。這在理論上聽起來不錯,但讓機器人在現(xiàn)實中做出快速的決策可能非常困難。
另一種想法是自下而上的方法,機器從經(jīng)驗中學(xué)習(xí),而不是填鴨式似的被輸入各種必要的規(guī)則。這就減少了機器人電腦的壓力,因為它不需要考慮每個動作的影響,而且可以簡單地使用習(xí)慣性的反應(yīng),促進倫理和道德行為的有機發(fā)展。
質(zhì)疑人類
如果我們能開發(fā)出有意識的機器人,那么他們會成為人類嗎?在這種情況下,難道他們不應(yīng)該享有和其他人一樣的權(quán)利嗎?
斯坦福大學(xué)的科學(xué)家們目前正致力于研發(fā)神經(jīng)網(wǎng)格,這是一種能夠?qū)崟r模擬大腦活動的硬件。這臺超級計算機的大小相當(dāng)于一臺iPad,有朝一日可能成為一臺能獨立思考的機器。
神經(jīng)網(wǎng)格甚至可以復(fù)制人腦的線路。人類和機器人之間的唯一區(qū)別,是人類有更多的神經(jīng)通路,這意味著機器人能夠獨立思考只是時間問題。
但是,如果機器人變得有自我意識,它們和我們的區(qū)別又會是什么呢?
Nao時代
Nao是一個身高為58厘米的人形機器人,它已經(jīng)可以講故事、走路以及做決定。但它所能做的遠(yuǎn)不止這些。Nao也有道德規(guī)范,在選擇行動之前,它可以在任何情況下權(quán)衡所有的選擇。Nao使用一系列真實或虛假的陳述來識別傷害、利益以及每個選項的利弊。其創(chuàng)造者通過列舉生物倫理學(xué)家在自主性、利益和對病人的傷害方面已經(jīng)解決的沖突,來教授Nao圖和解決這些類型的問題。
Nao的學(xué)習(xí)算法允許它對這些病例進行分類,找出一些模式來幫助它在新的情況下做出決定。例如,Nao會根據(jù)患者病情的實際情況來提醒患者什么時候吃藥。當(dāng)一個患有輕微病情的患者不想現(xiàn)在吃藥時,Nao也會同意她當(dāng)前的做法,但是過一段時間還是會提醒她吃藥。
機器人會有感覺嗎?
人類的生存依賴人類彼此之間建立的緊密聯(lián)系,也依賴彼此的情感。我們從一出生就開始表達(dá)自己的情感,也從其他人那里了解人類的情緒。
Nao能夠下載新行為,進行眼神交流,識別人臉,并對用戶作出反應(yīng)。這對患有自閉癥、受過過度刺激或語言溝通有障礙的兒童來說是非常寶貴的,而且機器人可以幫助他們學(xué)會識別情緒。研究表明,實際上計算機比我們更擅長閱讀與表達(dá),這意味著我們對機器人說謊越來越困難。
去年,Nao的創(chuàng)造者Aldebaran發(fā)布了一款新的機器人Pepper。這款機器人是第一個與人類生活在一起的機器人,它能夠反映出用戶的情緒狀態(tài)——這是人類在嬰兒時期開始做的事情。這是雙向的,當(dāng)機器人反映我們的情緒時,我們本能地反映他們的情緒,感受與他們的聯(lián)系,并幫助他們完成任務(wù)。
雖然機器人還不能感知情感,但它們已經(jīng)能夠表現(xiàn)得像它們能夠做到一樣。2014年,一個名為Eugene的機器人通過了圖靈測試。這個測試的命名是為了紀(jì)念一位名為Alan Turing的計算機先行者。這個測試用于測試計算機是否能“智能化”,而且基本上是模擬游戲。一名人類法官坐在電腦屏幕的一邊,與其他人類交談,而且還有一個聊天機器人也在其中,該機器人被用來誘導(dǎo)法官,讓他認(rèn)為這也是人類。
圖靈測試已經(jīng)存在了20多年,而且Eugene(被編程作為一名13歲男孩)讓33%的法官認(rèn)為它是人類,這表明即使機器人已經(jīng)能夠足夠智能且有效地欺騙與它們所交流的三分之一的人類,但它仍然還有很長的路要走。
理解人格
歐洲議會投票贊成起草一項法規(guī)來管理人工智能和機器人的創(chuàng)造與使用,包括“電子人格”,這將賦予機器人權(quán)利和責(zé)任。
在美國現(xiàn)行法律下,公司是法人。那么為什么機器人或電子人不能成為人呢?這將對制造機器人的公司產(chǎn)生巨大影響。如果他們創(chuàng)造出一個機器人,而那個機器人創(chuàng)造出一個可以申請專利的產(chǎn)品,那么誰會擁有專利呢?機器人?還是公司?
更重要的是,作為“人”很重要的權(quán)利就是投票權(quán)。很多人認(rèn)為,如果機器人對自己的行為負(fù)責(zé),那么他們應(yīng)該有權(quán)投票或擔(dān)任陪審員。但是要想投票,機器人需要對正確和錯誤有一個非常綜合的理解。
人類擁有的另一項關(guān)鍵的權(quán)利是繁衍后代。因為機器人能夠?qū)崿F(xiàn)無限的自我復(fù)制,因此允許他們投票就必須能夠有效地控制他們。正是出于這個原因,許多倫理學(xué)家認(rèn)為,機器人應(yīng)該有繁殖的權(quán)利,或者投票的權(quán)利,但不是兩者兼具。
Ryan Calo是華盛頓大學(xué)專攻網(wǎng)絡(luò)法律和機器人技術(shù)的法學(xué)教授。他供職于CITRIS,這是一個關(guān)于人和機器人的咨詢委員會。他把這種困境稱為“復(fù)制與投票悖論”。
如果有一天人工智能機器聲稱它已經(jīng)具有了人格,有知覺,能感知痛苦與快樂,有尊嚴(yán),而且我們又無法反駁的時候,我們可能無法否認(rèn)它將和我們享受的一樣的人權(quán)。如果那臺機器聲稱它應(yīng)該能夠繁殖和投票,然后無限地復(fù)制自己,那么民主就會完全被破壞。
所以,機器人應(yīng)該有投票權(quán)嗎?
機器人應(yīng)該投票嗎?
一旦機器人變成了“人”,享受與人類同樣的權(quán)利,他們也必須承擔(dān)同樣的責(zé)任。這就意味著機器人將會由于造成傷害或犯錯誤而被控告,并且在法律體系下也會受到懲罰。
同時還存在另外一個問題。雖然歐盟可能準(zhǔn)備授予機器人人格,而且美國正鼓勵使用倫理,但誰能說其他國家也會這么做呢?隨著世界各國開始利用人工智能,自主機器人制造生命或死亡的決定可能很快成為戰(zhàn)爭的共同特征。中國和俄羅斯政府已經(jīng)在努力爭取超越其他國家的優(yōu)勢,從而發(fā)起一場新的軍備競賽。
來自澳大利亞新南威爾士大學(xué)的Toby Walsh教授已經(jīng)多次向聯(lián)合國提出建議,倡導(dǎo)成立一個國際機構(gòu)來預(yù)防“機器人成為另一種戰(zhàn)爭武器”。
毫無疑問,人工智能的倫理意義將是人類未來50年面臨的最大挑戰(zhàn)之一。理想情況下,我們最終將能夠利用機器人和人類的力量,并在道德方面對它們進行整合,未來之路必將荊棘叢生。





