美國陸軍未來司令部司令約翰·默里上將在戰(zhàn)略與國際問題研究中心的一場網(wǎng)絡研討會上說,人類可能無法打擊敵方無人機群。他還說,管理人類對人工智能控制的規(guī)定可能需要放寬。
默里說:“當你抵御無人機集群時,我不確定人的反應是否能跟得上。當你從人類的角度(做出)非致命決策時,你實際上需要多少人為參與?”
這表明了五角大樓在使用自主武器時對規(guī)則有新的解讀。這需要對任何致命系統(tǒng)進行有目的的人類控制,盡管這可能是監(jiān)督作用,而不是直接控制——被稱為“人監(jiān)督回路”,而不是“人直接控制回路”。
默里說,五角大樓的領(lǐng)導人們應當就人工智能需要多少人類控制才能安全但仍然有效進行討論,尤其是在應對無人機集群等新威脅的情況下。這樣的無人機群有可能會同步它們的攻擊,這樣攻擊就會同時來自各個方向,目標就是飽和打擊防空系統(tǒng)。
由幾百架無人機組成的軍用無人機群已經(jīng)得到展示,在未來我們有可能看到由數(shù)千架甚至更多無人機組成的無人機群。美國海軍的一個項目設(shè)想必須同時應對最多可達一百萬架無人機。
美國陸軍正在斥資十億美元購買新的防空車輛,也就是“初期機動型短距防空系統(tǒng)”(IM-SHORAD)。在正確的時間用正確的武器應對正確的目標將是至關(guān)重要的。面對大量來襲的威脅——可能還會有誘餌混跡其中——人類炮手有可能負擔過重。
這并非陸軍未來司令部首次提出人類自身可能會被超越。在一次有關(guān)國防部高級研究項目局和美國陸軍聯(lián)合進行的“系統(tǒng)增強型小型作戰(zhàn)單元”(SESU)項目簡報中,科學家們指出,人類操作人員一直想要干涉機器人的行動。試圖微觀管理機器的舉措會降低機器人的性能。
一名要求匿名的科學家說:“如果你不得不傳輸目標圖像,先讓人類看到,然后等待人類按下‘開火’鍵,這對機器的速度來說是很漫長的。如果我們將人工智能的速度放慢至人類的速度……那我們就將輸?shù)簟?rdquo;
人工智能方興未艾。在去年8月的一場虛擬空戰(zhàn)中,人工智能5比0戰(zhàn)勝一名人類飛行員。該結(jié)果仍在被討論,但毫無疑問,機器具有更快的反應能力,有能力同時追蹤數(shù)件事,并且不會受到疲勞或恐懼的困擾,疲勞和恐懼可能會導致在戰(zhàn)斗中的糟糕決策。
對此有兩種回應。一種是努力并控制人工智能,讓其遠離戰(zhàn)場,因為機器缺乏人類的道德感。長期以來,反對“殺手機器人”的組織一直提出理由反對自主武器,而歐盟似乎也贊同。上周,歐洲議會確定其立場:“選擇一個目標并使用自主武器系統(tǒng)采取致命行動的決定,必須始終由人類做出,進行有意義的控制和判斷。”換言之,自主武器作出自己的決定應被法律禁止。
然而,美國似乎采取了不同的路線。由政府任命的一個小組本周向國會報告時提出,人工智能有可能比人類犯的錯誤少,并且在識別目標方面會做得更好。
該小組副主席、前國防部副部長羅伯特·沃克說:“至少追求這一假設(shè)是道德義務。”他認為,自主武器將減少由于目標錯誤識別而造成的傷亡。
在這背后,有軍事觀點。如果由人工智能控制的武器能夠擊敗人類操作的武器,那么擁有人工智能的任何人都將獲勝,并且無法部署它們意味著接受失敗。