關(guān)鍵字:軍事武器 人工智能 自動武器 電子制作模塊
這封公開信是生命未來研究所(Future of Life Institute;FLI)在2015年人工智能國際聯(lián)合會(IJCAI)開幕時所發(fā)表的,用意在于警告開發(fā)軍事人工智能(Artificial Intelligence;AI)系統(tǒng)的軍備競賽將會傷害人類。
“如果有任何重大的軍事力量推動AI武器的發(fā)展,不可避免地將會造成一波全球性的軍備競賽,而這項技術(shù)軌跡的終點是顯而易見的:自動武器將會變成明日的Kalashnikovs沖鋒qiang。”
信中強調(diào),這樣的系統(tǒng)利用其強大的可承受能力,無可避免地將會變得無所不在,并且被用于暗殺、動蕩國家、進行種族屠|殺與恐怖主義。
FLI是由美國麻省理工學(xué)院(MIT)宇宙學(xué)家Max Tegmark和Skype聯(lián)合創(chuàng)辦人Jaan Tallinn連手成立的,Hawking與Musk擔(dān)任該研究所顧問,期望教導(dǎo)人們看清伴隨人類發(fā)展AI而來的風(fēng)險。他們先前已經(jīng)公開指出超先進AI的潛在危險,Musk還曾經(jīng)強調(diào)先進的AI最終“可能成為我們最大的生存威脅”。
(來源:jlmaral via Flickr under CC By 2.0)
由AI帶來的潛在危險已成為技術(shù)專家和決策者之間討論的聯(lián)合話題。就在一個月前,位于美國華府的信息技術(shù)與創(chuàng)新基金會(Information Technology and Innovation Foundation)邀請多位知名的計算機科學(xué)家聯(lián)合針對超級智能計算機是否真的對人類造成威脅的問題展開廣泛討論。
加州大學(xué)柏克萊分校AI教授Stuart Russell參與了這場辯論會,同時也簽署了這封公開信。根據(jù)他的觀察,“AI是否會對人類造成威脅,取決于我們是否使其成為人類的威脅。”他強調(diào),我們還必須更加努力,才能確保不會使AI成為人類的威脅。
美國軍方目前堅稱,自動系統(tǒng)必須服從人類的指揮。根據(jù)2012年美國國防部(DoD)的政策指令規(guī)定,“自動與半自動武器系統(tǒng)的設(shè)計必須能讓指揮官和營運商行使適當(dāng)?shù)娜藶榕袛?,凌駕于武力的使用之上。”
然而,人類控制超越這些系統(tǒng)的實踐仍然不完善。2014年,人權(quán)組織Reprieve聲稱,美國無人機在每一次預(yù)定目標(biāo)的攻擊行動中意外導(dǎo)致28名不明個人死亡。
美國國防部對于自動武器的政策必須在發(fā)布后的五年內(nèi)重新認證,否則將在2022年到期。然而,如果其他國家不斷追逐自動系統(tǒng)的開發(fā),那么政治或軍事領(lǐng)袖是否會持持這項策略就不得而知了。
在2014年的報告中,華府的一個防御政策小組——新美國安全中心(CNAS)聲稱,全球至少有75個國家仍不斷投資于自動軍事系統(tǒng)的研發(fā),而美國將“出于運作的必要性而被迫投入些系統(tǒng),同時也因為人員的成本以及傳統(tǒng)載人作戰(zhàn)平臺的發(fā)展越來越無以為繼。”
如果CNAS是正確的,那么自動系統(tǒng)的經(jīng)濟將會十分吸引人,攻擊性武器的禁令可能無法實現(xiàn)。
經(jīng)濟將在武器系統(tǒng)的要求下展現(xiàn)明顯作用。
Kalashnikov步qiang在很大程度上取決于其普及度、可負擔(dān)性以及簡單性?;蛘撸缘貄雷為例,這種表面上的攻擊性自動武器并不包括在公開信提出“禁用攻擊性自動武器”的涵蓋范圍內(nèi)。
根據(jù)聯(lián)合國的數(shù)據(jù),地|雷的制造費用介于3美元至75美元之間。從1960年代以來,已經(jīng)有多達1.1億個地|雷被部署在全世界70多個國家中。此外,在戰(zhàn)時尚未被發(fā)現(xiàn)的地|雷仍可能引爆。
禁止地|雷的確有其效果:在1999年分頒布禁雷條約(Mine Ban Treaty)后,因地|雷死傷的人數(shù)已經(jīng)從每天25人降低到9人了。但對于地|雷的限制至今尚未取得世界各地或每個人的重視。
的確,更好的AI實際上也有許多好處。例如,基本的地|雷算法是:如果觸發(fā),隨即爆炸。它能做得更有識別能力嗎?——何時爆炸、該礦區(qū)的機制是機械或電子的?例如在地|雷中加一個逾期定時器,就能避免許多意外致死,特別是當(dāng)作戰(zhàn)結(jié)束后。更先進的系統(tǒng)對于有效目標(biāo)應(yīng)該具有更高的識別能力。
攻擊性的向動武器目前已經(jīng)存在了。除了地|雷,還有自動網(wǎng)絡(luò)武器。例如,Stuxnet一直被歸類于AI。事實上,相較于消極地禁止自動武器系統(tǒng)以外,更實際也更有效的作法在于追尋一個積極管理的制度。