近年來(lái),人工智能這個(gè)話題大熱。些科幻電影中,人工智能的發(fā)展終無(wú)法抑制,成為了人類文明的終結(jié)者。些大牛們,如比爾蓋茨、霍金,都對(duì)人工智能的發(fā)展提出了警告;不過(guò)也有人認(rèn)為,人工智能在現(xiàn)在階段并不是什么威脅。
人工智能是否會(huì)帶來(lái)世界末日?
2014年,SpaceX的CEO Elon Musk發(fā)推說(shuō):“Bostrom的《超智慧(Superintelligence)》非常值得讀。對(duì)待AI,我們需要小心翼翼。”同年,劍橋大學(xué)的宇宙學(xué)史蒂芬·霍金(Stephen Hawking)在接受BBC的訪問(wèn)時(shí)說(shuō):“完全的人工智能(full arTIficial intelligence)的發(fā)展可能會(huì)導(dǎo)致人類的終結(jié)。”微軟聯(lián)合創(chuàng)始人比爾·蓋茨(Bill Gates)也警告說(shuō):“關(guān)于AI,我持謹(jǐn)慎懷疑態(tài)度。”
關(guān)于AI帶來(lái)的世界末日將如何展開(kāi),計(jì)算機(jī)科學(xué)Eliezer Yudkowsky在2008年發(fā)表的《全球?yàn)?zāi)難風(fēng)險(xiǎn)(Global Catastrophic Risks)》中提出:AI在未來(lái)從單細(xì)胞生物發(fā)展到人類智力水平的可能性有多大呢?他回答道:“形成個(gè)物理意義上的大腦是可能的,其計(jì)算的速度是人類大腦的百萬(wàn)倍。..。如果人腦因此而加速,主觀上年的思考將在31秒內(nèi)就完成了,千年將在八個(gè)半小時(shí)內(nèi)就過(guò)去了。”Yudkowsky認(rèn)為,如果我們不這么做就太晚了:“人工智能所運(yùn)行的時(shí)間維度與我們不同,當(dāng)你的神經(jīng)元完成思考說(shuō)‘我應(yīng)該做這件事情’時(shí),你已經(jīng)錯(cuò)過(guò)時(shí)機(jī)了。”
牛津大學(xué)哲學(xué)尼克·博斯特羅姆(Nick Bostrom)在他的《超智慧(Superintelligence)》中提出所謂的回形針大化的思想實(shí)驗(yàn):個(gè)AI被設(shè)計(jì)來(lái)制造回形針,并且在耗盡其初的原材料供應(yīng)之后,它將利用在其可達(dá)范圍內(nèi)的任何可用原子,包括人類。正如他在2003年的篇論文中所描述的那樣,從那時(shí)開(kāi)始“轉(zhuǎn)化整個(gè)地球,為回形針制造設(shè)施增加空間”。短時(shí)間內(nèi),整個(gè)宇宙都由回形針和回形針制造器組成。
對(duì)此,我表示懷疑。先,所有這樣的末日情景都涉及長(zhǎng)串的“如果-那么(if-then)”意外事件,在任何點(diǎn)的失敗都會(huì)推到所謂的世界末日。西英格蘭布里斯托大學(xué)的電氣工程教授艾倫·溫菲爾德(Alan Winfield)在2014年的篇文章中這樣說(shuō):“如果我們成功地構(gòu)建與人類相同的AI,如果AI對(duì)它如何工作有著充分理解,如果它成功地改善自身成為超智能AI,如果這個(gè)超AI意外或惡意地開(kāi)始消耗資源,如果我們不能拔插頭斷電,那么,是的,我們可能有問(wèn)題。這種危險(xiǎn),不是不可能,是不太可能發(fā)生。”
第二,如果按照時(shí)間段來(lái)檢查的話,會(huì)發(fā)現(xiàn)人工智能的發(fā)展遠(yuǎn)低于預(yù)期。正如Google執(zhí)行主席埃里克·施密特(Eric Schmidt)在回應(yīng)馬斯克(Musk)和霍金(Hawking)時(shí)所說(shuō):“你認(rèn)為人類不會(huì)注意到這種情況嗎?你認(rèn)為人類不會(huì)關(guān)閉這些電腦嗎?”谷歌自己的DeepMind開(kāi)發(fā)了個(gè)AI關(guān)閉開(kāi)關(guān)的概念,被戲稱為“大紅色按鈕“,可以用來(lái)接管AI。正如百度副總裁吳安民(Andrew Ng)所說(shuō)的那樣(回應(yīng)Musk),“這就像是我們甚至還沒(méi)有踏上火星,就在擔(dān)心火星上會(huì)人口過(guò)剩。”
第三,AI的末日情景通常基于自然智能和人工智能之間的錯(cuò)誤對(duì)比。哈佛大學(xué)實(shí)驗(yàn)心理學(xué)Steven Pinker在對(duì)2015年Edge.org年度問(wèn)題“你對(duì)機(jī)器思考有什么看法”的回答中闡明:“AI反烏托邦項(xiàng)目將個(gè)狹隘的阿爾法男性心理學(xué)投射到智力概念上。他們認(rèn)為,超人類的智能機(jī)器人將‘放棄他們的主人或接管世界’作為自己的發(fā)展目標(biāo)。”同樣地,Pinker說(shuō)道,“人工智能將沿著雌系自然發(fā)展——能夠完全解決問(wèn)題,但不會(huì)想要消滅無(wú)辜或支配文明。“
第四,暗示計(jì)算機(jī)將“想要”做某事(例如將世界變成回形針)就等同于AI有情感。正如科學(xué)作Michael Chorost所言:“AI真的想要做某事時(shí),它將會(huì)生活在個(gè)有獎(jiǎng)勵(lì)和懲罰的宇宙中,這其中就包括來(lái)自我們對(duì)不良行為的懲罰。”
鑒于歷史上對(duì)世界末日的幾乎為0的預(yù)測(cè)率,加上人工智能在幾十年來(lái)緩慢發(fā)展,我們有足夠的時(shí)間建立故障安全系統(tǒng),防止任何這樣的人工智能所帶來(lái)的世界末日。