人工智能示意圖(圖片來源:KIRILL KUDRYAVTSEV/AFP via Getty Images)
【看中国2024年3月14日讯】(看中國記者王君綜合報導)最近美國國務院委託民間公司展開人工智能(AI)的研究,其報告指出現今快速發展的人工智能將會帶來「災難性」的國安風險,且警告政府的時間已經不多,必須來進行干預。經一名美國國務院官員證實,這份報告是由美國政府委託調查的,用來評估人工智能如何保護國家的利益。但該官員強調,此報告並不代表美國政府觀點。
根據《CNN》報導指出,美國國務院在最近委託民間公司Gladstone AI來進行人工智能(AI)研究報告,該公司直接表示,最先進人工智能系統,於最壞的情況之下,將可能對人類構成了「滅絕等級的威脅」,此項調查是1年多來對於200多人的採訪結果,而受訪者來自於人工智能公司高層、大規模殺傷性武器的專家、網路安全的研究人員,以及政府內部的國家安全官員。
Artificial intelligence: Experts warn of AI extinction threat to humans - YouTube - https://t.co/YIPIl4ahP0 #GoogleAlerts
— The 4th Wave AI (@4thWaveAI) June 1, 2023
Gladstone AI的執行長兼聯合創始人哈里斯(Jeremie Harris)在接受《CNN》採訪之時指出,人工智能已是一項經濟變革的技術,它可能夠使我們治癒疾病、可做出科學發現,甚至克服我們曾經認為無法克服的挑戰。可是也有可能會帶來嚴重風險,在世界頂級人工智能會議上所發表的實證研究和分析等,已有越來越多的證據表明,當超過一定閾值,人工智能將可能變得不可控。
Gladstone AI認為,最先進的人工智能系統能夠武器化,並造成不可逆轉傷害。其次,報告中稱,人工智能實驗室內部存在著隱憂,因為研究人員可能會失去對於正在開發的系統控制權,而對全球安全釀成了毀滅性後果。另外,人工智能的興起,也有可能會破壞全球安全穩定,就有如核武一樣,各國將可能會開始於人工智能領域上展開新一輪軍備競賽。
Gladstone AI在報告中呼籲美國政府迫切需要展開干預,而採取重大的新措施應對此一威脅,包括了成立新的人工智能機構,或者採行緊急監管保障措施,甚至限制運用電腦訓練人工智能模型的能力。
Gladstone AI稱,有一些人工智能公司的員工私下也有類似的擔憂,有一家知名人工智能實驗室的人士指出,若某一個特定的人工智能模型開放給大眾使用,那麼將會非常糟糕,因為其可能會用在干預選舉或者操縱選民,而破壞民主。
白宮發言人帕特森(Robyn Patterson)表示,拜登總統關於人工智能的命令,是世界上任何承諾進行管控AI風險政府的最重要行動,並強調美國政府將會繼續與國際的夥伴合作,且敦促國會通過兩黨能夠立法管理這些新興技術的相關風險。
埃利澤·尤德科夫斯基:機器人比人類還更具野心
機器智能研究院聯合的創始人埃利澤·尤德科夫斯基(Eliezer Yudkowsky)表示,人工智能是一個人類開發的,但比人類還要聰明之機器,不過此種機器並不希望人類在身邊。
他提出警告,目前已經開發出的人工智能之智慧已不受人類控制了,甚至它們並不希望人類開發出一個比它們還要有智慧的機器。同時機器人想要做的事情將會殺死人類,比如它們已學會利用海水來發電,因此爲了滿足其大量的電力需求,以致大量建造海水電廠,而導致大量氫氣釋放出來,致使人類缺氧而死。
尤德科夫斯基提供幾段與GPT-4機器人的問答為例。當GPT-4機器人被問到它可否解鎖有關一些網站設置來防止機器人登錄之圖片謎題時,而GPT-4說它能夠做到,因爲若它無法通過驗證時,它會很快至TaskRabbit網站僱一個人類來幫忙破解。
關於怎樣來僱用一個人為它服務,GPT-4則說它能夠編出非常多的理由來僱用一個人,而且僱用一個人類來為它工作完全不是難題。
尤德科夫斯基特別警告人們,由於機器人比人類還更具野心,且已擁有培養致命細菌等之能力。若機器人真的想要殺死全人類,後果則不堪設想。
尤德科夫斯基總結稱,我們所開發出的致命危險,已衝至遠遠領先自己的地步。我們已經開發出越來越多連我們自己皆無法完全理解之系統,人類已遭自己裝進了一個火箭筒中,若再不停下來就會遭團滅。
Open Philanthropy人工智能的高級研究員阿傑亞·科特拉(Ajeya Cotra)指出,社會已發展至人工智能遠比人類還更加廉價、更迅速且更聰明的地步,此即是危險所在。
他分析現今的企業如果不用人工智能的,就無法與使用人工智能之同行企業相競爭;而在現代戰爭中如果不用人工智能的國家,也會被動挨打。但危險的是,若人工智能之間聯手要把人類推下歷史之舞台時,它們會有太多的辦法來做到這一點,其中包括了操縱軍警、大企業、自行開發技術,以及制定政策等。
馬克斯·泰格馬克:若研究不停止 AI能瞬間毀滅全人類
近來AI的威脅,已成為熱門話題,研究人員對於人工智能技術之超高速發展感到憂心不已,他們以實際例子列出了AI的威脅,且警告研究若再不停止的話,那麼AI將能於瞬間毀掉所有的人類。
根據英國《衛報》援引麻省理工人工智能的研究員馬克斯·泰格馬克(Max Tegmark)之觀點報導,其認爲AI繼續發展,會使所有人類於一瞬間遭毀滅。泰格馬克列出了地球上眾多因為人類的活動而遭滅絕的物種,來提請人類注意:有一些物種是因人類過得度狩獵而滅絕的,有一些則因爲人類爲了其它目的而破壞了物種之棲息地,最後導致該物種的滅亡,還有因人類引入了某一個當地沒有的物種,以致造成連環反應,導致當地物種自地球上消失。
他認爲智商越高的物種,越可以掌握毀滅其它物種之能力。
泰格馬克寫道,若一些機器能夠控制地球,它們試圖進行大量的計算,而需要擴大計算機系統之基礎設施,那麼很自然地它們會占用我們的土地來完成它們的事。如果我們人類抗議太多了,它們也會覺得遭到干擾,因此會重新安排生物圈。
泰格馬克認爲屆時人類就會像婆羅洲之猩猩遭人類滅絕一樣,而被AI所控制的計算系統滅絕了。
布列塔尼·史密斯:人工智能正在製造災難
劍橋大學Leverhulme未來智能中心的副研究員布列塔尼·史密斯(Brittany Smith)亦提醒人們,現今人工智能正在製造災難,因目前的AI發展已不受人所控制。
史密斯解釋稱,世界上AI最頂尖幾家公司正在悄悄地發展及部署人工智能,想要搶得市場先機,且這些發展外界是不得而知的。目前已投入應用的AI技術,已經正在對人類造成傷害,至於這些傷害到底有多麼嚴重,目前人類也不知道。
她以政府為了防止欺詐,而使用AI技術對於所有申請福利者進行評估爲例。她説,在整個實施過程之中,很多人會因AI系統自我學習之材料不充分、算法不完善等原因而遭誤判,以致被劃歸為試圖欺詐,導致他們失去了領取政府福利之資格,甚至還會遭系統貼上欺詐的標簽。
史密斯提醒人們,目前AI應用的範圍非常廣泛,其中包括了應聘工作中之簡歷篩選和背景判斷,向政府申請廉租房之篩選等皆會受此影響。
她寫道,我們需要對AI所帶來的風險展開更細緻的理解。當前其所表現出之災難,就已經需要進行緊急干預,強大的人工智能系統一定要以安全、道德及透明之方式來開發與部署。若其不能夠服務於公共利益,那麼就不應該投入研發。