科幻電影劇照
據英國《新科學家》雜志報道,2004年,由威爾-史密斯主演的美國影片《機械公敵》在全球上映,其中描述了芝加哥警察對付學會了獨立思考并且脫離了人類控制的機器人的故事。當然,影片中人類最終戰勝了機器人,但科學家們警告說,這樣的威脅目前正在不斷迫近,人類應該提早考慮應對之策。
科學家們描述了這樣一個“人工智能的世界”:可能在20年或30年后,人工智能機器人就可以和人類做朋友了,但50年后,人工智能將成為人類最大的威脅。世界最終會因人工智能超過人類而爆發一場戰爭,這場智能戰爭也許會奪去數十億人的生命。科學家們認為,人工智能遲早會超過人類。人腦的運算能力是10的16次方/秒,而人工智能機器的運算速度高達10的40次方/秒,是人腦水平的10的24次方倍。那時候他們對待人類可能就像拍死一個蚊子這么簡單。但人工大腦并不會立即控制人類,此前還會有一段與人類“和平相處”的時期。這一時期它不斷接近但尚未超越人的智力水平,因此“聊天機器人”、“家務機器人”、“伴侶機器人”將使人類的生活充滿樂趣。但這樣的美景并不會長久,人工智能的繼續發展將使人類面臨災難。
科學家們表示,在災難來臨前,人類將會分為三派:宇宙主義者(主張發展人工智能的人)、地球主義者(反對發展人工智能的人)和人工智能控制論者(將自己改造成機器人的人)。也許在人工大腦對付人類之前,這三類人會先展開人類內部的斗爭。
考慮到上述這些可能發生的威脅,美國耶魯大學倫理學家溫德爾-瓦拉克、美國印地安那州立大學認知科學家柯林-阿倫提出了6種有望避免悲劇發生的應對之策。
1、將它們存放在低危環境中
要確保所有的計算機和機器人永遠不會做出可能導致事先無法預測的后果的決定。
成功的可能性:極低。工程師們現在已經建成了計算機和機器人系統,但它們的行為好象并不總是可以預測。消費者、工業界以及政府部門需要那種能夠執行各種任務的技術,而為了滿足這種需求,企業也將會不斷提高產品的數量和性能。為了實現這一戰略,就必須立即深入發展計算機和機器人技術。
2、不要給它他們武器
成功的可能性:為時已晚。現在已經出現了半自動機器人武器系統,如巡航導彈、無人駕駛飛機等。一些持槍機器人也已經被派往伊拉克境內負責戰場攝影,但很明顯它們實際上并未真正部署。
但是,軍事決策者們卻好象對機器人士兵的研發非常感興趣,并將其看作是未來戰爭中降低人員傷亡的一種重要手段。如果想要停止自動化武器的建設,現在好象為時已晚,但是如果想要對機器人所攜帶的武器或是對它們可以使用武器的前提條件進行限制,好象還并不太晚。
|