首頁(yè) > 新能源汽車

無(wú)人駕駛汽車陷道德困境 谷歌也沒(méi)有答案

來(lái)源:新能源汽車網(wǎng)
時(shí)間:2016-08-29 16:08:22
熱度:

無(wú)人駕駛汽車陷道德困境 谷歌也沒(méi)有答案據(jù)報(bào)道,谷歌工程總監(jiān)Ray Kurzweil最近在奇點(diǎn)大學(xué)(Singularity University)演講時(shí)表示,關(guān)于無(wú)人駕駛汽車在面臨道

據(jù)報(bào)道,谷歌工程總監(jiān)Ray Kurzweil最近在奇點(diǎn)大學(xué)(Singularity University)演講時(shí)表示,關(guān)于無(wú)人駕駛汽車在面臨道德困境時(shí)如何做選擇,這個(gè)問(wèn)題目前沒(méi)有答案。

  人們有時(shí)會(huì)遇到道德困境,從而不得不面對(duì)兩難選擇。在人工智能越來(lái)越發(fā)達(dá)的今天,機(jī)器也會(huì)遇到同樣的問(wèn)題。

  最近,Uber在美國(guó)賓夕法尼亞州匹茲堡推出無(wú)人駕駛汽車,這是一個(gè)令人興奮的消息。

  但是,如果無(wú)人駕駛汽車面臨一種道德困境,它會(huì)如何選擇,設(shè)計(jì)者是否已經(jīng)為它們?cè)O(shè)計(jì)好了應(yīng)對(duì)方式?

  例如,假使無(wú)人駕駛汽車快要撞上另一輛汽車,那輛車?yán)镒齻€(gè)人。它可以轉(zhuǎn)彎閃開(kāi),但這樣它就會(huì)撞上人行道上的三個(gè)孩子。

  它會(huì)如何選擇?

  巧合的是,谷歌的工程總監(jiān)Ray Kurzweil本周在奇點(diǎn)大學(xué)演講時(shí)為這個(gè)問(wèn)題提供了一個(gè)答案:我們不知道。

  Ray Kurzweil解釋說(shuō),“不可殺人”的戒律過(guò)于簡(jiǎn)單。他說(shuō),如果有人將要炸毀一幢建筑物或一個(gè)城市,那么除掉這個(gè)人就是符合道德的。

  就無(wú)人駕駛汽車來(lái)說(shuō),他認(rèn)為有必要進(jìn)行“道德設(shè)計(jì)”。他說(shuō),艾薩克阿西莫夫(Isaac Asimov)的機(jī)器人三法則(Three RulesofRobotics)是一個(gè)很好的示范。

  這三條法則是:

  機(jī)器人不得傷害人類,也不得因?yàn)椴蛔鳛槎谷祟愂艿絺Α?/p>

  機(jī)器人必須服從人類的命令,除非這樣做違背第一條法則。

  在不違背第一條和第二條法則的情況下,機(jī)器人必須保護(hù)自己。

  Ray Kurzweil不知道,不作為——你可以挽救某人的生命卻沒(méi)有這樣做——是否等同于殺戮。

  他承認(rèn),在無(wú)人駕駛汽車的道德品性方面,他現(xiàn)在完全沒(méi)有現(xiàn)成的答案。

  “我要考慮更長(zhǎng)的時(shí)間。我還沒(méi)有做過(guò)這種分析。”他說(shuō)。

  谷歌的首席工程師Andrew Chatham認(rèn)為,當(dāng)無(wú)人駕駛汽車面臨兩難選擇時(shí),“答案差不多總是‘踩剎車’。”

  他承認(rèn),這可能并不總是正確的答案。但他表示,如果連踩剎車都不是一種正確的應(yīng)對(duì),那就是面臨極端情形了。

  但是,這個(gè)世界上不是充滿了極端情況嗎?

  美國(guó)麻省理工學(xué)院的研究人員最近創(chuàng)建了一個(gè)名為道德機(jī)器(Moral Machine)的調(diào)查平臺(tái)。此舉意在調(diào)查人們希望無(wú)人駕駛汽車在面臨道德困境時(shí)如何選擇。

  “研究人員不僅想知道人類會(huì)做出怎樣的選擇。他們也希望‘清楚地了解人類如何看待在道德困境下作出了某種選擇的機(jī)器智能’。”

  這似乎是相當(dāng)明智的。

  Uber沒(méi)有回復(fù)記者的置評(píng)請(qǐng)求,因此目前還不清楚該公司是怎樣處理無(wú)人駕駛汽車的“道德設(shè)計(jì)”問(wèn)題的。