5.機器的自我意識
有可能
電影《機械公敵》海報(新浪科技配圖)
機器人掌管世界會怎樣?
撰文 拉里·格林邁耶(Larry Greenemeier)
翻譯 崔琳琳
能夠自我復制、自我學習、適應不同環境的高智能計算機和機器人,一旦出現必將改變世界,對于這一點,人工智能研究者深信不疑。引起爭議的原因是這樣一些問題:這一切會在何時發生,影響會有多深遠,人類應該如何應對。
今天的智能機器大都是設計用來在已知條件下完成特定任務的。不過,未來的智能機器將擁有更多自主性。美國康奈爾大學機械電腦工程師霍德·利普森(HodLipson)說:“我們想讓機器去完成的任務越復雜,就越是需要它們能夠自己照顧自己。”利普森指出,我們越是無法預見問題,就越需要機器能夠自己適應環境變化并自行作出決定。利普森說,隨著機器越來越懂得如何學習,“我覺得它們終將走上意識和自我覺醒之路”。
雖然神經科學家對意識的生物學基礎一直爭論不休,但系統復雜度似乎是關鍵因素之一,這就暗示,擁有高級軟硬件配置的自適應計算機有朝一日或許會自我覺醒。如果《終結者》之類的電影預言正確的話,有一種方法會讓我們意識到機器已經獲得了意識,那就是它們突然向人類發動戰爭。專家認為,我們很有可能會看到這一幕的發生。
電影中的這一構想,來源于對人類自身的觀察。美國倫塞勒理工學院(Rensselaer Polytechnic Institute)的邏輯學家和哲學家塞爾默·布林斯約爾德(Selmer Bringsjord)說,只有我們人類達到了這樣一種智力水平,讓我們能夠一次又一次跳出條條框框,達到越來越高的水平。用他的話來說,人類有能力把他們從自身的認知局限中解放出來,而動物似乎被鎖進了一個“一成不變的認知囚籠”。一旦機器意識到自己的存在,并了解到自身的結構,它們就能設計一個自我改進方案。“這將帶來一系列很棘手的連鎖變化,”威爾·賴特(Will Wright)說。他是《模擬人生》(Sims)游戲的開創者,也是美國加利福尼亞大學伯克利分校機器人工作室蠢趣俱樂部(Stupid Fun Club)的聯合創始人。機器在自我意識首次覺醒之后就會進行自我完善,用賴特的話來說,這是“使事情變得有趣的關鍵一步”。這樣的自我完善可能會連續發生好幾“代”,對機器來說,更新一代只需要短短幾個小時。
換句話說,賴特指出,自我意識導致自我復制,導致更好的機器可以在無人類參與的情況下制造出來。就人類命運而言,“我個人總是覺得,這個場景要比許多其他情景可怕得多,”他說,“或許我們在有生之年就會看到這一幕。一旦出現了某種形式的超級智慧要同我們分享地球,一切就都完了。”
并不是所有人都如此悲觀。畢竟,機器是依照它們程序的邏輯工作的,布林斯約爾德說,如果正確地給機器編寫程序,“機器是不會獲得某種超自然能力的”。他指出,值得擔心的應該是先進的機器智能在武器或戰斗機器中的秘密應用,這些領域沒有人能夠密切監控。除此之外,布林斯約爾德說,只要負責任地使用人工智能,“我敢說我們能夠控制未來”。
未來派杰出作家雷·庫日韋爾(RayKurzweil)也認為,更高智慧的人工智能不會以“取代人類的機器異形侵略者”的形象登場。他說,機器的發展將會遵循一條與人類進化相似的道路。不過他也認為,最終,擁有自我意識、能夠自我改良的機器將進化到超出人類控制能力、甚至理解能力的地步。
不受人類控制的機器會帶來何種法律問題,現在尚不明了,所以“花些心思來考慮這一問題,或許是個好主意”,利普森說。已故的艾薩克·阿西莫夫(isaacasimov)提出過“機器人三定律”,本質上是要求機器人不能傷害人類或者坐視人類受到傷害。利普森指出,阿西莫夫的三定律有一個前提,那就是“假設給機器人編程的是人類”。一旦機器人開始給自己編程,甚至刪除人類指令,此類倫理法則就會變成一紙空文,很難得到遵守。
不過,還有一些人認為,人類或許壓根就不應該去控制新一代的人工智能。賴特問道:“誰敢說這不是進化的必經之路?難道當初恐龍就應該規定,哺乳動物不能長得更大,不能更多地主宰這個星球嗎?”如果最終證明我們不可能控制這些硅基伙伴,我們最好還是祈禱能夠和它們和平共享這個星球吧。
|