《超級(jí)智能》作者談AI:人類就像玩炸彈的小孩
最近,牛津大學(xué)人類未來研究所教授、哲學(xué)家Nick Bostrom成了科技界熟知的人物。他撰寫的書籍《超級(jí)智能:路線圖、危險(xiǎn)性與應(yīng)對(duì)策略》在2015年成為《紐約時(shí)報(bào)》暢銷書,而且還得到比爾·蓋茨 和伊隆·馬斯克的推薦。在書中,他指出,人類面臨的最大生存威脅不是氣候變化、傳染病或者核武器,而是超越人類的機(jī)器智能即將出現(xiàn)。最近,Nick Bostrom接受衛(wèi)報(bào)采訪,談到自己對(duì)人工智能的一些看法。
《超級(jí)智能》這本書的開頭是一則寓言。一群麻雀正在建巢,這時(shí)候,一只麻雀弱弱地說,“我們太小,太軟弱了。如果有一只貓頭鷹幫我們建巢,生活會(huì)多么輕松啊!” 這個(gè)想法得到了所有麻雀的贊同。它們開始尋找改變自身生存狀況的救世主。
一只獨(dú)眼老麻雀發(fā)出了不同的聲音?!斑@肯定會(huì)導(dǎo)致我們的毀滅啊。在貓頭鷹來到我們中間之前,難道我們不該先學(xué)習(xí)馴養(yǎng)貓頭鷹的技術(shù)嗎?” 但是,他的警告無人在意。馴養(yǎng)貓頭鷹太復(fù)雜了,為什么不先找來貓頭鷹,然后再考慮以后的事情呢?
這則寓言是對(duì)人類追求人工智能的一種警告。在書中,Bostrom 提到,當(dāng)智力超越人類的機(jī)器開始自己設(shè)計(jì)機(jī)器后,人類就會(huì)面對(duì)“智力大爆炸”?!霸谥橇Υ蟊ㄖ?,人類就像是玩炸彈的小孩,” 他寫到,“我們根本不知道爆炸何時(shí)發(fā)生,但是,如果我們把炸彈放到耳邊,就能夠聽到微弱的滴答聲?!?/p>
認(rèn)為,如果我們創(chuàng)造出強(qiáng)于自身的機(jī)器智能,并且給予其成長的自由,那么,它肯定會(huì)設(shè)法維護(hù)自己的主導(dǎo)地位。這與生物界的情況是一樣的。因此,人工智能系統(tǒng)可能會(huì)派出大量的小型機(jī)器人,消滅干擾其運(yùn)行或者無關(guān)緊要的人類;或者,它可能“挾持政治進(jìn)程、暗地操控金融市場,改變信息流動(dòng)方向,或者黑掉人類制造的武器系統(tǒng)?!?/p>
這聽起來就像是科幻小說。不過,Bostrom 說自己并非預(yù)言家,相反,他對(duì)這些事情“非常無知和困惑”,但是,經(jīng)過多年的研究,他得到了一些“不完整的先見”,有了一些更深層的理解。
在 Bostrom 看來,超級(jí)智能與人類和諧共處不僅是政治、哲學(xué)問題,而且更是一個(gè)技術(shù)問題。“目前,機(jī)器仍然無法理解許多東西,因?yàn)樗鼈冞€不夠聰明。但是,一旦它們足夠聰明,理解人類的痛苦和死亡并不是特別難的事情”。這或許會(huì)讓它們學(xué)會(huì)尊重人類的價(jià)值。雖然不知道如何去做,但是,Bostrom 認(rèn)為“道德理論”必須強(qiáng)制編入機(jī)器人程序中。
如今,人工智能正進(jìn)入創(chuàng)造性領(lǐng)域。它們可以編寫音樂、作畫,甚至寫作。對(duì)此,Bostrom 說,藝術(shù)雖然能夠被復(fù)制,但是,“藝術(shù)活動(dòng)本身就有價(jià)值”。因此,在超級(jí)智能興起后,真實(shí)的人類創(chuàng)作會(huì)變得越來越重要。
“當(dāng)機(jī)器在一切事情上都超過我們,我們?nèi)匀粫?huì)繼續(xù)做自己喜歡的事情。當(dāng)人們打高爾夫球的時(shí)候,不是出于讓球高效入洞的需求,而是因?yàn)樗麄兿硎苓@項(xiàng)運(yùn)動(dòng)。當(dāng)機(jī)器能夠替代人類的一切活動(dòng),我們會(huì)把更多注意力放到活動(dòng)本身,追求它們的內(nèi)在價(jià)值。”