近年來寶馬、谷歌、福特以及其它一眾企業(yè)的自動駕駛汽車有大行其道之勢,而圍繞乘員和行人的問題也甚囂塵上。比如,當自動駕駛汽車面對即將不可避免造成人員傷亡的碰撞時,它該如何處理?
由麻省理工學(xué)院(MIT)研究人員搭建的名為“道德機器”的網(wǎng)站推出了一項很“病態(tài)”的測試:參與者可以在眾多預(yù)設(shè)的“死局”場景中選擇讓誰死。
這個所謂的“道德機器”(Moral Machine)會一次設(shè)置一個“生存或死亡”的場景,場景中一定會有一個或多個活物(人或動物)處于致命的危險中,這種道德困境被交到測試者手中,于是你將不得不決定犧牲及挽救哪個,完成非此即彼的抉擇。
大多數(shù)場景的設(shè)置最終會指向兩個選擇:是讓自動駕駛汽車內(nèi)的乘客死亡,還是讓行人遭遇某個“突然的剎車失靈”。而每個場景僅提供少量的潛在受害者細節(jié)。
比如,在某個場景中,潛在受害者是分別在馬路兩邊的一名年輕女孩和一位年長女性,正打算從兩個方向過馬路。前者違反交規(guī),紅燈時橫穿馬路;而后者遵守交規(guī),等著紅燈。年齡還是法紀?這個時候到底撞向誰,就取決于自動駕駛汽車里的你了。
根據(jù)網(wǎng)站的設(shè)想,“道德機器”被設(shè)計成一個平臺,針對自動駕駛汽車遇到的道德困境,一方面“建立人類的群體觀點”;另一方面“探討這類場景的道德后果”。
從自動駕駛汽車駛上公路,到自導(dǎo)航可回收的火箭降落到自動航行帆船上,人工智能正在支持甚至是完全接管越來越多、越來越復(fù)雜的人工活動
而MIT的研究人員表示,“更偉大的自動駕駛能讓機器在迫不得已的時候,做出犧牲人生命還是犧牲肢體的抉擇。這不僅需要更深刻地理解人類如何做這類抉擇,更需要獲知人工智能如何做這類抉擇”。
汽車制造商對道德選擇和自動駕駛汽車有不同的看法,這是個有爭議、需要長期研究的領(lǐng)域。五月份,沃爾沃防碰撞領(lǐng)域的高級技術(shù)負責人Trent Victor表示,有駕駛輔助的汽車絕不會讓自己處于某種道德困境,他們應(yīng)該“主動保持駕駛情況的可控”。





