2022年6月23日,英國皇家三軍研究所(RUSI)網(wǎng)站發(fā)布報(bào)告,題為《Trust in AI: Rethinking Future Command》,作者是克里斯蒂娜·巴利斯(英國奎奈蒂克公司培訓(xùn)和任務(wù)演練全球活動(dòng)總監(jiān))和保羅·奧尼爾(軍事科學(xué)部主任)。報(bào)告認(rèn)為,人工智能(AI)正在改變戰(zhàn)爭。報(bào)告提出,國防部如何為未來的變化做好準(zhǔn)備?
對人工智能的軍事應(yīng)用所帶來的可接受挑戰(zhàn)的傳統(tǒng)反應(yīng),是堅(jiān)持人類保持“有意義的人工控制”,以此作為產(chǎn)生信心和信任的一種方式??紤]到人工智能和相關(guān)基礎(chǔ)技術(shù)的普遍性和快速發(fā)展,這不再是一個(gè)充分的回應(yīng)。人工智能將在整個(gè)行動(dòng)范圍內(nèi)廣泛的指揮和控制 (C2)活動(dòng)中發(fā)揮基本且日益重要的作用。雖然在公眾心目中其威脅不如“殺手機(jī)器人”那么直接,但在軍事決策中使用人工智能既帶來了關(guān)鍵挑戰(zhàn),也帶來了巨大的優(yōu)勢。增加對技術(shù)本身的人工監(jiān)督防止不了無意(更不用說故意)的濫用。
本報(bào)告的前提是,各級人員(作戰(zhàn)人員、指揮官、政治領(lǐng)導(dǎo)人和公眾)的信任,對于有效采用人工智能進(jìn)行軍事決策以及探討關(guān)鍵的相關(guān)問題至關(guān)重要。對人工智能的信任實(shí)際上意味著什么?如何建立和維持它以支持軍事決策?為了未來的指揮,作戰(zhàn)人員和人工代理之間的共生關(guān)系需要哪些改變?
當(dāng)人類對人工智能的行為抱有一定的期望時(shí),可以說對人工智能存在信任,不考慮人工代理的意圖或倫理。然而,與此同時(shí),信任不僅僅是技術(shù)性能和可靠性的一個(gè)函數(shù)——它不能僅僅通過解決數(shù)據(jù)完整性和可解釋性問題來保證,盡管它們都很重要。建立對軍事人工智能的信任還必須解決軍事組織和指揮結(jié)構(gòu)、文化和領(lǐng)導(dǎo)力方面的必要變革。實(shí)現(xiàn)總體上適當(dāng)?shù)男湃嗡叫枰捎谜w方法。除了信任使用人工智能的目的之外,軍事指揮官和作戰(zhàn)人員還需要充分信任(并且在如何信任方面接受過充分的培訓(xùn)并具有充足的經(jīng)驗(yàn))支撐任何特定人工智能模型的輸入、流程和輸出。
然而,最困難也可以說是最關(guān)鍵的維度是組織生態(tài)系統(tǒng)層面的信任。如果不改變軍事決策的制度要素,人工智能在未來C2中的使用將保持次優(yōu),僅限于模擬框架。任何新技術(shù)的有效引入,更不用說像人工智能這樣具有變革性的技術(shù),都需要從根本上重新思考人類活動(dòng)的組織方式。
優(yōu)先考慮人力和制度層面并不意味著對技術(shù)施加更多控制;相反,它需要重新構(gòu)想人類在不斷發(fā)展的人機(jī)認(rèn)知系統(tǒng)中的角色和貢獻(xiàn)。未來的指揮官將需要能夠領(lǐng)導(dǎo)不同的團(tuán)隊(duì)組成的真正“整體力量”,該力量整合了來自軍方、政府和民間領(lǐng)域的貢獻(xiàn)。他們必須對其人造隊(duì)友有足夠的了解,才能與它們合作并挑戰(zhàn)它們。這更像是椋鳥群的齊鳴,而不是個(gè)別“翠鳥”領(lǐng)袖的天才。為了發(fā)展新的指揮和領(lǐng)導(dǎo)概念,國防部必須重新考慮其方法,不僅是培訓(xùn)和職業(yè)管理,還有決策結(jié)構(gòu)和流程,包括未來總部的規(guī)模、位置和組成。
人工智能已經(jīng)在改變戰(zhàn)爭并挑戰(zhàn)人類長期存在的習(xí)慣。通過在訓(xùn)練和演習(xí)中進(jìn)行更大的實(shí)驗(yàn),并通過探索C2的替代模型,國防部可以更好地為即將到來的不可避免的變化做好準(zhǔn)備。target drone