人類造出超級人工智慧,有可能玩火自焚嗎?電影裡的終結者會走進現實嗎?
電影裡,施瓦辛格扮演的機器人「終結者」說:「我會回來!」
劍橋大學的學者決定嚴陣以待,確保人類不至於被自己製造的惡魔機器人毀滅。
這個「終結者研究中心」(centre for 'Terminator studies)的主要任務是研製如何抗衡可能導致人類滅絕的四大「惡魔」:人工智慧(artificial intelligence)、氣候變化(climate change)、核戰爭(nuclear war)和「邪惡」的生物技術(rogue biotechnology)。
這個中心的正式名稱是「生存風險研究中心」(Centre for the Existential Risk,CSER)。
杞人憂天?
很久以前,人類自我毀滅就是科幻小說和電影的主要題材;科研發展也在不斷「試水」未知領域、開闢新疆域。
最大的風險之一就是自掘墳墓。
如果這種擔心在幾十年前會被嗤為杞人憂天,那麼現在劍橋大學設立這樣一個防止人類滅絕的研究中心,或許從一個側面印證了這種可怕情景並非純屬虛構。
這個中心由三人聯合創辦:里斯勛爵(Lord Rees),英國皇家天文學家,《我們的最後一個世紀》(Our Final Century)一書作者,以及網際網路電話服務Skype的共同創始人之一揚·塔裡安(Jaan Tallinn)。
里斯勛爵在他2003年出版的這本書裡預言,人類表現出來的各種自殘、自毀行為,最終可能導致2100年人類徹底滅絕。
災難之盒?
還有一位創辦人是劍橋大學知名哲學教授休·普萊斯(Huw Price)。
普萊斯教授曾經提醒人們,「超級智能機器」(ultra-intelligent machine),或稱人工綜合智能(artificial general intelligence, AGI),確實涉及人類存亡。
他說,AGI 有可能帶來「潘多拉的盒子」(神話裡盛滿災難的盒子,打開盒蓋,災難飛灑人世),我們對此務必重視;錯過這個關鍵時刻,就可能陷入滅頂之災。
當然,他承認現在誰都無法準確預計超級人工智慧AGI可能帶來哪些具體災難,但這也正說明很有必要立項研究科技發展的「災難性的一面」。
他在中心剪綵儀式上表示,劍橋大學已經存在了800年,為了後人能夠慶祝它建校1000週年,現在就應該打磨抗擊「人類終結者機器人」的利劍。