超模擬機器人Sophia。(You tube視頻截圖)
【看中國2017年7月14日訊】前段時間,一個叫Sophia的超模擬機器人上了電視節目,對各種問題對答如流,表情豐富,把所有人都給驚到了。她大概是世界上最像人類的機器人了,可以辨識記憶人臉,有超強學習和理解能力,甚至可以和人有眼神交流。
但是,她說的最後一句話,卻讓人不寒而慄,細思恐極!
該視頻上傳後,引髮網友熱議:
網友:「MAN MASK5」說:「為什麼感覺最後的回答是真的?」
網友「小御小日記」說:「我有點害怕……」
網友「張鳳起」說:「人類確實比機器人可怕,正因為人的好奇心無窮,更加勇於挑戰常規,挑戰人性,雖也因此科技得以進步,但往往一不注意,就釀成災難。」
網友「Sing Ho NZ」說:「極度懷疑是外星人創造的,目的是利用機器人控制人類。」
隨著應用領域與複雜度不斷拓展,人工智慧也變得越來越強大。AI(Artificial Intelligence人工智慧)已經進入到一些簡單的決策當中,比如誰應該入獄,誰應該獲得貸款等等。未來AI可能會在自動駕駛汽車上做出攸關生命的抉擇,比如在一場不可避免的車禍中,決定到底哪個司機有最佳的生存機率。
然而,人類通常不知道自己創造的這些AI在想什麼。
當研究人員開始透過「學習」訓練機器,將經驗轉化為模擬神經網路的系統,產生出的結果不是代碼,而是不可讀、數百萬甚至數十億的人造神經元。
多數研究人員都同意,認識AI是一項迫切的挑戰。如果我們不知道人造思維如何運作,又該如何確定它所持的偏見或預測它的錯誤呢?
我們無法事先知道AI是否有「種族歧視」,也無法預期它的思維模式是否可能讓自駕車發生事故……
Pinterest的軟體工程師Tracy Chou,在公司內專門負責機器學習項目,他認為AI發展中很大的問題在於,多數人都把AI或機器學習想得過於「中立」,「多數人都不瞭解的是,是人類設計了這些AI模型,也是人類選擇要用什麼數據來訓練機器。」
有一個最簡單的例子:Google翻譯。當你在Google翻譯上輸入「醫生」,要求翻譯成葡萄牙語時,總是會得到陽性名詞médico,而非陰性名詞的médica;輸入「護士」時,則會得到陰性的enfermeira,而非陽性的enfermeiro。類似的事情其實經常發生。
和人類不同的是,我們不能直接詢問機器「為什麼這麼做?」儘管AI在限定的環境條件下能表現十分出色,但談到內省(introspection)的能力,AI的程度可能與蟑螂差不多。
當我們用人工智慧取代人類決策者時,我們如何保證他們不偏離人類預期的「軌道」?我們更不知道,未來更加智能的機器人都要「摧毀人類」時,人類將如何面對自己所造出的這一切!