5.機(jī)器的自我意識(shí)
有可能
電影《機(jī)械公敵》海報(bào)(新浪科技配圖)
機(jī)器人掌管世界會(huì)怎樣?
撰文 拉里·格林邁耶(Larry Greenemeier)
翻譯 崔琳琳
能夠自我復(fù)制、自我學(xué)習(xí)、適應(yīng)不同環(huán)境的高智能計(jì)算機(jī)和機(jī)器人,一旦出現(xiàn)必將改變世界,對(duì)于這一點(diǎn),人工智能研究者深信不疑。引起爭(zhēng)議的原因是這樣一些問(wèn)題:這一切會(huì)在何時(shí)發(fā)生,影響會(huì)有多深遠(yuǎn),人類應(yīng)該如何應(yīng)對(duì)。
今天的智能機(jī)器大都是設(shè)計(jì)用來(lái)在已知條件下完成特定任務(wù)的。不過(guò),未來(lái)的智能機(jī)器將擁有更多自主性。美國(guó)康奈爾大學(xué)機(jī)械電腦工程師霍德·利普森(HodLipson)說(shuō):“我們想讓機(jī)器去完成的任務(wù)越復(fù)雜,就越是需要它們能夠自己照顧自己?!崩丈赋?,我們?cè)绞菬o(wú)法預(yù)見(jiàn)問(wèn)題,就越需要機(jī)器能夠自己適應(yīng)環(huán)境變化并自行作出決定。利普森說(shuō),隨著機(jī)器越來(lái)越懂得如何學(xué)習(xí),“我覺(jué)得它們終將走上意識(shí)和自我覺(jué)醒之路”。
雖然神經(jīng)科學(xué)家對(duì)意識(shí)的生物學(xué)基礎(chǔ)一直爭(zhēng)論不休,但系統(tǒng)復(fù)雜度似乎是關(guān)鍵因素之一,這就暗示,擁有高級(jí)軟硬件配置的自適應(yīng)計(jì)算機(jī)有朝一日或許會(huì)自我覺(jué)醒。如果《終結(jié)者》之類的電影預(yù)言正確的話,有一種方法會(huì)讓我們意識(shí)到機(jī)器已經(jīng)獲得了意識(shí),那就是它們突然向人類發(fā)動(dòng)戰(zhàn)爭(zhēng)。專家認(rèn)為,我們很有可能會(huì)看到這一幕的發(fā)生。
電影中的這一構(gòu)想,來(lái)源于對(duì)人類自身的觀察。美國(guó)倫塞勒理工學(xué)院(Rensselaer Polytechnic Institute)的邏輯學(xué)家和哲學(xué)家塞爾默·布林斯約爾德(Selmer Bringsjord)說(shuō),只有我們?nèi)祟愡_(dá)到了這樣一種智力水平,讓我們能夠一次又一次跳出條條框框,達(dá)到越來(lái)越高的水平。用他的話來(lái)說(shuō),人類有能力把他們從自身的認(rèn)知局限中解放出來(lái),而動(dòng)物似乎被鎖進(jìn)了一個(gè)“一成不變的認(rèn)知囚籠”。一旦機(jī)器意識(shí)到自己的存在,并了解到自身的結(jié)構(gòu),它們就能設(shè)計(jì)一個(gè)自我改進(jìn)方案。“這將帶來(lái)一系列很棘手的連鎖變化,”威爾·賴特(Will Wright)說(shuō)。他是《模擬人生》(Sims)游戲的開(kāi)創(chuàng)者,也是美國(guó)加利福尼亞大學(xué)伯克利分校機(jī)器人工作室蠢趣俱樂(lè)部(Stupid Fun Club)的聯(lián)合創(chuàng)始人。機(jī)器在自我意識(shí)首次覺(jué)醒之后就會(huì)進(jìn)行自我完善,用賴特的話來(lái)說(shuō),這是“使事情變得有趣的關(guān)鍵一步”。這樣的自我完善可能會(huì)連續(xù)發(fā)生好幾“代”,對(duì)機(jī)器來(lái)說(shuō),更新一代只需要短短幾個(gè)小時(shí)。
換句話說(shuō),賴特指出,自我意識(shí)導(dǎo)致自我復(fù)制,導(dǎo)致更好的機(jī)器可以在無(wú)人類參與的情況下制造出來(lái)。就人類命運(yùn)而言,“我個(gè)人總是覺(jué)得,這個(gè)場(chǎng)景要比許多其他情景可怕得多,”他說(shuō),“或許我們?cè)谟猩昃蜁?huì)看到這一幕。一旦出現(xiàn)了某種形式的超級(jí)智慧要同我們分享地球,一切就都完了?!?/p>
并不是所有人都如此悲觀。畢竟,機(jī)器是依照它們程序的邏輯工作的,布林斯約爾德說(shuō),如果正確地給機(jī)器編寫(xiě)程序,“機(jī)器是不會(huì)獲得某種超自然能力的”。他指出,值得擔(dān)心的應(yīng)該是先進(jìn)的機(jī)器智能在武器或戰(zhàn)斗機(jī)器中的秘密應(yīng)用,這些領(lǐng)域沒(méi)有人能夠密切監(jiān)控。除此之外,布林斯約爾德說(shuō),只要負(fù)責(zé)任地使用人工智能,“我敢說(shuō)我們能夠控制未來(lái)”。
未來(lái)派杰出作家雷·庫(kù)日韋爾(RayKurzweil)也認(rèn)為,更高智慧的人工智能不會(huì)以“取代人類的機(jī)器異形侵略者”的形象登場(chǎng)。他說(shuō),機(jī)器的發(fā)展將會(huì)遵循一條與人類進(jìn)化相似的道路。不過(guò)他也認(rèn)為,最終,擁有自我意識(shí)、能夠自我改良的機(jī)器將進(jìn)化到超出人類控制能力、甚至理解能力的地步。
不受人類控制的機(jī)器會(huì)帶來(lái)何種法律問(wèn)題,現(xiàn)在尚不明了,所以“花些心思來(lái)考慮這一問(wèn)題,或許是個(gè)好主意”,利普森說(shuō)。已故的艾薩克·阿西莫夫(isaacasimov)提出過(guò)“機(jī)器人三定律”,本質(zhì)上是要求機(jī)器人不能傷害人類或者坐視人類受到傷害。利普森指出,阿西莫夫的三定律有一個(gè)前提,那就是“假設(shè)給機(jī)器人編程的是人類”。一旦機(jī)器人開(kāi)始給自己編程,甚至刪除人類指令,此類倫理法則就會(huì)變成一紙空文,很難得到遵守。
不過(guò),還有一些人認(rèn)為,人類或許壓根就不應(yīng)該去控制新一代的人工智能。賴特問(wèn)道:“誰(shuí)敢說(shuō)這不是進(jìn)化的必經(jīng)之路?難道當(dāng)初恐龍就應(yīng)該規(guī)定,哺乳動(dòng)物不能長(zhǎng)得更大,不能更多地主宰這個(gè)星球嗎?”如果最終證明我們不可能控制這些硅基伙伴,我們最好還是祈禱能夠和它們和平共享這個(gè)星球吧。
|