特斯拉創(chuàng)始人:人工智能危險過核武器!

放大字體  縮小字體 發(fā)布日期:2014-10-09     來源:[標(biāo)簽:出處]     作者:[標(biāo)簽:作者]     瀏覽次數(shù):130
核心提示:
訊   特斯拉汽車公司的創(chuàng)始人之一埃倫·馬斯克最近患上了“科技恐懼癥”,他在社交網(wǎng)絡(luò)上連發(fā)兩條聳人言論,警告人類要對人工智能特別小心,因為人工智能在未來很可能比核武器還要危險。

  埃倫·馬斯克冷不丁地拋出這樣的言論,是因為不久前看了一本名為《我們最后的發(fā)明:人工智能及人類時代的終結(jié)》的書,這本書的作者認(rèn)為,人工智能的出現(xiàn)將會為人類帶來滅頂之災(zāi)。暫且不說這種可能性有多大,僅從目前來看,人工智能對待人類的態(tài)度還算友善。

  比方說,前不久被微信列為不受歡迎名單的微軟小冰,不久將以小冰二代的身份重返微信平臺,而且還帶來了一項特殊功能——控制智能家居,假如你在微信中對小冰下達(dá)關(guān)燈的指令,家中的智能電燈就能自動關(guān)閉。假如有一天小冰不高興了,頂多不聽你的指揮,拒絕開燈,尚不至于要了你的命。當(dāng)然,如果未來你家的電鋸也受小冰控制,那就不好說了。

  所以,我說目前人工智能對待人類的態(tài)度還算友善,這句話還隱藏另外一個意思,就是即便它不友善,現(xiàn)在也還沒到對人類生命構(gòu)成威脅的時候。不過,埃倫·馬斯克的擔(dān)憂也并非杞人憂天,我認(rèn)為人工智能哪怕具備以下四點中的一點,就足以對人類帶來不可想象的后果。

  一、通過圖靈測試

  著名的“圖靈測試”說的是假如一臺電腦能在5分鐘內(nèi)回答人類提出的一系列問題,且超過30%的答案讓測試者誤認(rèn)為是人類所答,那么這臺電腦就通過了測試,并被視為具有人類智能。

工博士工業(yè)品商城聲明:凡資訊來源注明為其他媒體來源的信息,均為轉(zhuǎn)載自其他媒體,并不代表本網(wǎng)站贊同其觀點,也不代表本網(wǎng)站對其真實性負(fù)責(zé)。您若對該文章內(nèi)容有任何疑問或質(zhì)疑,請立即與商城(headrickconstructioninc.com)聯(lián)系,本網(wǎng)站將迅速給您回應(yīng)并做處理。
聯(lián)系電話:021-31666777
新聞、技術(shù)文章投稿QQ:3267146135  投稿郵箱:syy@gongboshi.com