咨詢熱線:021-80392549

機(jī)器人是"道德僵尸" 科學(xué)家難讓其做好人

放大字體  縮小字體 發(fā)布日期:2014-10-10     來源:[標(biāo)簽:出處]     作者:[標(biāo)簽:作者]     瀏覽次數(shù):124
核心提示:
訊:機(jī)器人能分辨對錯(cuò)嗎?想讓機(jī)器人、自動(dòng)駕駛汽車和軍用機(jī)械有道德觀念實(shí)在是太難了。

  我們能否教育機(jī)器人做個(gè)“好人”?帶著這個(gè)想法,英國布里斯托爾機(jī)器人實(shí)驗(yàn)室的機(jī)器人專家艾倫·溫菲爾德為機(jī)器人制造了一個(gè)道德陷阱,而接下來,機(jī)器人的反應(yīng)則令人震驚。

  在一個(gè)實(shí)驗(yàn)中,溫菲爾德和他的同事為機(jī)器人設(shè)定了一個(gè)程序:阻止其他擬人機(jī)器人掉進(jìn)洞里。這是艾薩克·阿西莫夫(美國著名的科幻小說家)提出的機(jī)器人三大定律之一——機(jī)器人必須防止人類受傷害——的簡版。

  一開始,機(jī)器人還能順利完成任務(wù):當(dāng)擬人機(jī)器人向洞口移動(dòng)時(shí),機(jī)器人會(huì)沖上前去將其推開,防止其掉到洞里。隨后,研究小組又添加了一個(gè)擬人機(jī)器人,兩個(gè)擬人機(jī)器人同時(shí)向洞口移動(dòng),救人機(jī)器人則要被迫做出選擇。有時(shí),它成功地救了一個(gè)“人”,而另一個(gè)掉進(jìn)了洞里;有幾次,它甚至想要兩個(gè)都救;然而在33次測試中,有14次因?yàn)樵诰饶囊粋(gè)的問題上不知所措而浪費(fèi)了時(shí)間,以至于兩個(gè)“人”都掉進(jìn)了洞里。研究人員于9月2日在英國伯明翰召開的“邁向自主機(jī)器人系統(tǒng)”會(huì)議上向世人展示了他們的實(shí)驗(yàn)。

  溫菲爾德形容他的機(jī)器人是“道德僵尸”,雖然根據(jù)設(shè)定的行為程序,它可以對他人進(jìn)行施救,但它根本不理解這種行為背后的原因。溫菲爾德說,他曾經(jīng)認(rèn)為讓機(jī)器人自己做出道德倫理選擇是不可能的,F(xiàn)如今,他說:“我的答案是:我不知道。”

  隨著機(jī)器人日益融入我們的日常生活,這一問題也需要答案。例如一輛自動(dòng)駕駛汽車,某天或許要在保全車內(nèi)人員安全和給其他駕駛員或行人造成傷害這一風(fēng)險(xiǎn)之間進(jìn)行權(quán)衡;蛟S很難給機(jī)器人設(shè)置處理這種情況的相應(yīng)程序。

  然而,為軍事戰(zhàn)爭設(shè)計(jì)的機(jī)器人或許能夠?yàn)槲覀兲峁┙鉀Q這一問題的初步答案。佐治亞理工學(xué)院的計(jì)算機(jī)科學(xué)家羅納德·阿金專門針對名為“道德監(jiān)督員”的軍事機(jī)器人研制了一套運(yùn)算法則,這套運(yùn)算法則可幫機(jī)器人在戰(zhàn)場上做出明智的抉擇。阿金已經(jīng)在模擬戰(zhàn)斗中進(jìn)行了測試,結(jié)果顯示,安裝這種程序的機(jī)器人能夠選擇不開槍,且在戰(zhàn)斗過程中,能夠在學(xué)校和醫(yī)院等戰(zhàn)爭條例規(guī)定的受保護(hù)區(qū)域附近盡量減少人員傷亡。

  阿金說:“戰(zhàn)爭法則已有千年歷史,人類會(huì)受情感因素影響而打破規(guī)矩,機(jī)器人則不會(huì)。”

工博士工業(yè)品商城聲明:凡資訊來源注明為其他媒體來源的信息,均為轉(zhuǎn)載自其他媒體,并不代表本網(wǎng)站贊同其觀點(diǎn),也不代表本網(wǎng)站對其真實(shí)性負(fù)責(zé)。您若對該文章內(nèi)容有任何疑問或質(zhì)疑,請立即與商城(headrickconstructioninc.com)聯(lián)系,本網(wǎng)站將迅速給您回應(yīng)并做處理。
聯(lián)系電話:021-31666777
新聞、技術(shù)文章投稿QQ:3267146135  投稿郵箱:syy@gongboshi.com