一、引言
人工智能的快速發(fā)展,正在以前所未有的速度改變著各行各業(yè),軍事領(lǐng)域也不例外。在過去的十余年中,關(guān)于人工智能應(yīng)用于軍事領(lǐng)域的討論主要集中于“致命性自主武器系統(tǒng)”(Lethal Autonomous Weapons Systems)。這主要是因?yàn)椤短囟ǔR?guī)武器公約》締約國對(duì)該問題進(jìn)行了長期持續(xù)討論。然而近年來,人們?cè)絹碓揭庾R(shí)到武器系統(tǒng)只是人工智能在軍事領(lǐng)域應(yīng)用的眾多形式之一,其實(shí)際應(yīng)用范圍遠(yuǎn)超于此。人工智能技術(shù)能夠有效提升對(duì)海量數(shù)據(jù)的快速分析能力,正被廣泛應(yīng)用于各類軍事決策任務(wù)——從后勤補(bǔ)給、兵員征募到情報(bào)分析與目標(biāo)鎖定等不同風(fēng)險(xiǎn)層級(jí)的領(lǐng)域,這類系統(tǒng)通常被稱為“人工智能決策支持系統(tǒng)”(Artificial Intelligence Decision Support Systems)。
事實(shí)上,美國、英國及北大西洋公約組織(North Atlantic Treaty Organization)的政策制定者已發(fā)布國防戰(zhàn)略,明確指出在未來十年中,數(shù)據(jù)(而非機(jī)器人技術(shù)或致命性自主武器)將成為關(guān)鍵性的使能因素(enabler)。與此同時(shí),在烏克蘭和加沙戰(zhàn)場(chǎng),人工智能決策支持系統(tǒng)所發(fā)揮的重要作用,遠(yuǎn)遠(yuǎn)超過了人工智能支持下的機(jī)器人系統(tǒng)或者自主武器系統(tǒng)。而更具爭(zhēng)議的是以色列在加沙地區(qū)軍事行動(dòng)中所使用的多個(gè)人工智能系統(tǒng),因造成大量平民傷亡而遭致批評(píng)。盡管人工智能決策支持系統(tǒng)與致命性自主武器系統(tǒng)的底層技術(shù)非常相似,而且一些人工智能決策支持系統(tǒng)(如用于自動(dòng)目標(biāo)識(shí)別和定位的系統(tǒng))也可能成為自主武器系統(tǒng)的一部分,但是二者的軍事應(yīng)用卻引發(fā)了不同的人道主義關(guān)切和法律問題。戰(zhàn)爭(zhēng)和武裝沖突的殘酷性意味著,當(dāng)人工智能決策支持系統(tǒng)在武裝沖突中被用于作出使用武力的決策時(shí),其引發(fā)的挑戰(zhàn)與風(fēng)險(xiǎn)很可能被急劇放大。鑒于這類決策對(duì)民眾生命尊嚴(yán)及社會(huì)群體可能造成的重大影響,其潛在隱患尤其值得警惕。
與致命性自主武器系統(tǒng)的情形一樣,仍然是紅十字國際委員會(huì)(ICRC)首先關(guān)注到了人工智能軍事決策支持系統(tǒng)的人道風(fēng)險(xiǎn)。該委員會(huì)在2019年6月發(fā)布研究報(bào)告《武裝沖突中的人工智能與機(jī)器學(xué)習(xí):以人為本的方法》,較早地對(duì)人工智能用于軍事決策領(lǐng)域所產(chǎn)生的問題進(jìn)行了探討。該委員會(huì)在2024年先后發(fā)布了專家咨詢報(bào)告《人工智能及相關(guān)技術(shù)在武裝沖突中使用武力的軍事決策中的應(yīng)用:當(dāng)前發(fā)展與潛在影響》和顧問報(bào)告《決策,決策,決策:軍事決策中的計(jì)算與人工智能》。這兩份報(bào)告全面研究了人工智能決策支持系統(tǒng)在軍事領(lǐng)域的應(yīng)用情況,特別是提出了在武裝沖突中對(duì)使用武力的決策保留人類判斷力的必要性,以及應(yīng)對(duì)人類與人工智能決策支持系統(tǒng)交互的現(xiàn)有挑戰(zhàn)的方法。這兩份報(bào)告對(duì)我們理解和研究人工智能用于軍事決策所產(chǎn)生的各種影響具有重要價(jià)值。同時(shí),紅十字國際委員會(huì)還推出了名為“人工智能在軍事決策中的應(yīng)用”的法律博客。該博客發(fā)表的一系列文章對(duì)于該問題的研究也頗有助益。此外,南丹麥大學(xué)戰(zhàn)爭(zhēng)研究中心(Center for War Study)于2024年11月發(fā)表的研究報(bào)告《人工智能在軍事決策支持系統(tǒng)中的應(yīng)用:發(fā)展與爭(zhēng)論綜述》,回顧了截至2024年9月該報(bào)告撰寫時(shí)人工智能決策支持系統(tǒng)的主要發(fā)展情況,重點(diǎn)分析了此類系統(tǒng)各種具體應(yīng)用帶來的機(jī)遇與挑戰(zhàn)的主要爭(zhēng)論,尤其對(duì)戰(zhàn)爭(zhēng)中人機(jī)交互問題進(jìn)行了深入分析。該報(bào)告也是我們研究當(dāng)前問題的一份重要文獻(xiàn)。最后,一些國際人道法學(xué)者受到俄烏沖突和加沙沖突引發(fā)的人道危機(jī)觸動(dòng)發(fā)表的評(píng)論文章,也為研究當(dāng)前問題的性質(zhì)和范圍提供了重要參考文獻(xiàn)。
人工智能等新興技術(shù)的軍事化應(yīng)用絕非必然。這是主權(quán)國家自主選擇的結(jié)果,此類選擇必須受限于現(xiàn)行法律規(guī)則,并充分考慮對(duì)平民及退出敵對(duì)行動(dòng)的戰(zhàn)斗員可能造成的人道影響,同時(shí)兼顧更廣泛的“人性”與“公眾良知”要求。近期,一些國家或其有關(guān)部門制定了人工智能原則和政策來管控人工智能的軍事應(yīng)用。中國外交部也先后發(fā)布了《中國關(guān)于規(guī)范人工智能軍事應(yīng)用的立場(chǎng)文件》(2021年12月)、《中國關(guān)于加強(qiáng)人工智能倫理治理的立場(chǎng)文件》(2022年11月)以及《全球人工智能治理倡議》(2023年10月),全面闡述了中國在人工智能軍事應(yīng)用問題上的觀點(diǎn)和立場(chǎng)。這些文件不僅為中國制定相關(guān)立法和政策提供了重要指引,而且為推動(dòng)當(dāng)前圍繞人工智能國際治理所進(jìn)行的國際談判作出了重要貢獻(xiàn)。
人工智能用于軍事決策的問題在國際社會(huì)已經(jīng)引發(fā)廣泛討論,但是尚未引起中國國際法學(xué)者的充分關(guān)注。本文將首先考察人工智能軍事支持系統(tǒng)的概念及其應(yīng)用場(chǎng)景,接著簡(jiǎn)要介紹幾種當(dāng)前在武裝沖突中實(shí)際部署的此類系統(tǒng)的代表類型,然后以這些系統(tǒng)的實(shí)際運(yùn)行情況為依據(jù),重點(diǎn)分析人工智能決策支持系統(tǒng)所帶來的各種人道主義挑戰(zhàn)與風(fēng)險(xiǎn),最后嘗試從技術(shù)和法律層面提出緩解人道風(fēng)險(xiǎn)的對(duì)策建議。
二、人工智能軍事決策支持系統(tǒng)的概念和應(yīng)用場(chǎng)景
決策支持系統(tǒng)(Decision Support Systems)是通過呈現(xiàn)決策相關(guān)信息或提供備選方案,輔助人類完成復(fù)雜決策的計(jì)算機(jī)化工具(computerized tools)。此類系統(tǒng)廣泛應(yīng)用于醫(yī)療、商業(yè)管理、物流等諸多領(lǐng)域,甚至日益融入日常生活。例如,旅游網(wǎng)站整合餐廳位置、價(jià)格及用戶評(píng)價(jià)輔助用餐決策;導(dǎo)航軟件基于實(shí)時(shí)路況(如擁堵、道路施工、測(cè)速攝像頭)規(guī)劃最優(yōu)路線。在軍事沖突中,決策支持系統(tǒng)在指揮鏈的多個(gè)層級(jí)和各種不同任務(wù)中發(fā)揮著與民用系統(tǒng)類似的功能。軍用決策支持系統(tǒng)的主要目的是為各級(jí)軍事決策者提供信息,幫助其作出有效、快速、合法的軍事行動(dòng)決策。傳統(tǒng)非人工智能驅(qū)動(dòng)的決策支持系統(tǒng),在處理復(fù)雜多變的情況時(shí)存在明顯的局限性,這是因?yàn)槿祟惡茈y對(duì)各種變量進(jìn)行編碼。而新一代的決策支持系統(tǒng)正在利用人工智能強(qiáng)大的計(jì)算能力,尤其是機(jī)器學(xué)習(xí)和深度學(xué)習(xí)技術(shù),開發(fā)技術(shù)解決方案以協(xié)助人類作出軍事決策。隨著人工智能技術(shù)的跨越式進(jìn)步,這種趨勢(shì)還在日益增強(qiáng)。
(一)人工智能軍事決策支持系統(tǒng)的定義和特征
隨著傳感器、無人機(jī)和物聯(lián)網(wǎng)在軍事領(lǐng)域的應(yīng)用激增,各國收集數(shù)據(jù)(情報(bào))的能力顯著提高,使得各級(jí)軍事單位均需要處理大量數(shù)據(jù),這樣就增加了對(duì)自動(dòng)化處理數(shù)據(jù)的技術(shù)解決方案的需求。人工智能可以匯集不同來源的數(shù)據(jù)(主要包括衛(wèi)星圖像、無人機(jī)圖像、傳感器數(shù)據(jù)、社交媒體或者手機(jī)信號(hào)),并運(yùn)用其機(jī)器學(xué)習(xí)(尤其是深度學(xué)習(xí))能力,向決策者提供分析、建議和預(yù)測(cè)。對(duì)武裝部隊(duì)而言,人工智能決策支持系統(tǒng)相較于現(xiàn)有指揮和控制結(jié)構(gòu),可以大幅提升軍事決策效率并縮短決策周期。這將在武裝沖突中產(chǎn)生決定性的軍事優(yōu)勢(shì)。
簡(jiǎn)而言之,人工智能軍事決策支持系統(tǒng)就是使用了人工智能技術(shù)的軍事決策支持系統(tǒng)。南丹麥大學(xué)戰(zhàn)爭(zhēng)研究中心組織編寫的一份報(bào)告將其定義為:“基于模型的程序集合,用于處理數(shù)據(jù)與研判結(jié)果,協(xié)助指揮鏈不同層級(jí)的決策者處理半結(jié)構(gòu)化及非結(jié)構(gòu)化決策任務(wù)!奔t十字國際委員會(huì)的兩位專家也提供了一個(gè)類似的定義:人工智能軍事決策支持系統(tǒng)“是運(yùn)用人工智能軟件進(jìn)行數(shù)據(jù)展示、整合與分析,并在某些情況下生成行動(dòng)建議甚至戰(zhàn)局預(yù)判的計(jì)算機(jī)化工具,旨在輔助戰(zhàn)場(chǎng)環(huán)境下的人類作戰(zhàn)決策”。從技術(shù)角度講,人工智能技術(shù)的加入給原有的決策支持系統(tǒng)帶來了新的特征,這些特征對(duì)于使用了此類系統(tǒng)的人類指揮官在作出決策時(shí)是否能夠遵守國際人道法具有重大影響。其中有些方面,如加快數(shù)據(jù)處理與分析、增強(qiáng)態(tài)勢(shì)感知、進(jìn)行預(yù)測(cè)與模擬、優(yōu)化資源分配、減少人為錯(cuò)誤等,不僅可以提高軍事效能,而且有助于人類指揮官遵守國際人道法,而另一些技術(shù)特征則會(huì)對(duì)人道法的遵守和適用構(gòu)成挑戰(zhàn)。人工智能軍事決策支持系統(tǒng)具有如下特征。
第一,人工智能決策支持系統(tǒng)具有不確定性(uncertainty)。許多傳統(tǒng)的決策支持系統(tǒng)采用基于規(guī)則的計(jì)算機(jī)模型和算法,其結(jié)果具有確定性。換言之,對(duì)于相同的輸入總是產(chǎn)生相同的輸出,因此,這類系統(tǒng)對(duì)用戶來說是可預(yù)測(cè)且易于理解的。傳統(tǒng)系統(tǒng)在處理復(fù)雜問題、考慮未觀察變量、計(jì)算大量條件和參數(shù)、解決“非結(jié)構(gòu)化”問題,以及處理無法“腳本化”(即以特定規(guī)則編碼)到軟件中的動(dòng)態(tài)情況時(shí),能力相對(duì)有限。相比之下,基于機(jī)器學(xué)習(xí)的人工智能決策支持系統(tǒng)采用“非確定性”模型(亦稱“概率”模型或“隨機(jī)”模型),此類模型由計(jì)算機(jī)基于包含輸入和期望輸出示例的訓(xùn)練數(shù)據(jù)集開發(fā)。這類系統(tǒng)無需編寫那些可能無法完全捕捉問題復(fù)雜性的抽象規(guī)則,因此,在處理復(fù)雜任務(wù)時(shí)的表現(xiàn)會(huì)更優(yōu)。然而由于模型引入隨機(jī)性以應(yīng)對(duì)環(huán)境變量,相同或相似輸入可能產(chǎn)生不同輸出。這導(dǎo)致難以對(duì)系統(tǒng)決策邏輯進(jìn)行解釋,且難以對(duì)在具體使用場(chǎng)景中的行為表現(xiàn)進(jìn)行精確預(yù)測(cè)。這種不確定性是人工智能的技術(shù)特征所決定的,并進(jìn)而產(chǎn)生了這種新型決策系統(tǒng)的另外兩個(gè)特征:不可解釋性(unexplainability)和不可預(yù)測(cè)性(unpredictability)。
第二,人工智能決策支持系統(tǒng)具有不可解釋性。基于機(jī)器學(xué)習(xí)模型的人工智能系統(tǒng)所產(chǎn)生的結(jié)果通常具有不可解釋性。這也被稱為“黑箱”困境,即人工智能系統(tǒng)的開發(fā)者和使用者無法對(duì)其產(chǎn)生的結(jié)果進(jìn)行解釋。阿瑟·霍蘭德·米歇爾(Arthur Holland Michel)將計(jì)算領(lǐng)域的“黑箱”定義為“一個(gè)我們知曉輸入輸出,卻無法窺見其將前者轉(zhuǎn)化為后者過程的系統(tǒng)”。他還指出,人工智能系統(tǒng)——尤其是軍事領(lǐng)域應(yīng)用的系統(tǒng)——應(yīng)當(dāng)做到“行為符合預(yù)期”(即可預(yù)測(cè)),且應(yīng)基于可被人類理解的合理邏輯運(yùn)行。由此引出一個(gè)法律難題:當(dāng)人工智能系統(tǒng)的決策可能無法解釋時(shí),在多大程度上允許使用嚴(yán)重依賴此類系統(tǒng)的武器或作戰(zhàn)方法!昂谙洹崩Ь硨(dǎo)致人類決策者更加難以恰當(dāng)評(píng)估人工智能決策支持系統(tǒng)輸出結(jié)果的質(zhì)量,也難以化解自身判斷與系統(tǒng)建議之間的潛在沖突。某些人工智能系統(tǒng)甚至對(duì)其創(chuàng)造者而言都難以破譯,更不用說那些沒有技術(shù)背景的使用者或受其決策影響的對(duì)象。然而,若不能解釋一個(gè)系統(tǒng)的運(yùn)作邏輯,不僅難以評(píng)估其運(yùn)行狀態(tài)是否正常,也難以預(yù)判系統(tǒng)的未來行為——這意味著增強(qiáng)解釋能力可提升預(yù)測(cè)能力。與此同時(shí),開發(fā)“可解釋性”功能的嘗試也面臨艱難平衡——既要通過“解釋”使機(jī)器學(xué)習(xí)系統(tǒng)的輸出簡(jiǎn)單易懂,又要避免因過度簡(jiǎn)化而失真的風(fēng)險(xiǎn)。
第三,人工智能決策支持系統(tǒng)具有不可預(yù)測(cè)性?深A(yù)測(cè)性指系統(tǒng)輸出或效果可被預(yù)見的程度,即能夠回答“系統(tǒng)將執(zhí)行何種操作”的程度。缺少可預(yù)測(cè)性(即不可預(yù)測(cè)性)包含三重具有本質(zhì)差異的維度。(1)技術(shù)維度的“可預(yù)測(cè)性”通常指系統(tǒng)執(zhí)行任務(wù)時(shí)保持與測(cè)試階段、先前應(yīng)用場(chǎng)景(或機(jī)器學(xué)習(xí)系統(tǒng)中的訓(xùn)練數(shù)據(jù))相同性能表現(xiàn)的能力。這種可預(yù)測(cè)性具體體現(xiàn)為:系統(tǒng)輸出結(jié)果的正確頻率(即準(zhǔn)確度);隨時(shí)間推移維持相同準(zhǔn)確度的能力(即可復(fù)現(xiàn)性與可重復(fù)性);以及系統(tǒng)對(duì)超出設(shè)計(jì)/訓(xùn)練/測(cè)試數(shù)據(jù)范圍的輸入數(shù)據(jù)進(jìn)行“泛化”處理的能力——即適應(yīng)并有效處理與原始數(shù)據(jù)存在差異的新數(shù)據(jù)。(2)操作維度的“可預(yù)測(cè)性”指向自主系統(tǒng)具體行動(dòng)的可預(yù)見程度。即使做到零故障且行動(dòng)結(jié)果大體可預(yù)判,所有自主系統(tǒng)依舊會(huì)存在固有的操作不可預(yù)測(cè)性。舉例來說,設(shè)想一架完全自主的無人機(jī)被用于繪制地下隧道網(wǎng)絡(luò)的內(nèi)部地圖。即使該無人機(jī)具有高度的技術(shù)可預(yù)測(cè)性和極高的可靠性,部署它的人也不可能準(zhǔn)確預(yù)知它在隧道中會(huì)遇到什么,因此也無法事先知道它將采取哪些具體行動(dòng)。這是因?yàn)榧夹g(shù)上的可預(yù)測(cè)性僅關(guān)乎系統(tǒng)性能,而操作上的可預(yù)測(cè)性則同時(shí)受部署環(huán)境與任務(wù)特性制約。(3)技術(shù)與操作可預(yù)測(cè)性/不可預(yù)測(cè)性的交互產(chǎn)生了第三種一般意義上的可預(yù)測(cè)性/不可預(yù)測(cè)性:系統(tǒng)使用的結(jié)果或效果能夠被預(yù)期的程度。
(二)人工智能決策支持系統(tǒng)在軍事領(lǐng)域的應(yīng)用場(chǎng)景
隨著決策支持系統(tǒng)的發(fā)展,特別是通過集成機(jī)器學(xué)習(xí)等強(qiáng)大的人工智能技術(shù),多個(gè)技術(shù)領(lǐng)先的軍事強(qiáng)國開始在廣泛的任務(wù)類型和不同的指揮層級(jí)中追求和利用這一能力。上文對(duì)人工智能軍事決策支持系統(tǒng)給出了一個(gè)寬泛的定義,軍事決策范圍可以涵蓋從維護(hù)保障、后勤補(bǔ)給、人員與武器管理直至武力使用的廣泛領(lǐng)域,因此,此類系統(tǒng)在軍用領(lǐng)域有著廣泛的應(yīng)用場(chǎng)景。
在戰(zhàn)略層面(strategic level),人工智能決策支持系統(tǒng)的應(yīng)用包括行動(dòng)方案分析、早期預(yù)警、跟蹤、指導(dǎo)以及用于兵棋推演模型的模擬。人工智能決策支持系統(tǒng)可以幫助重現(xiàn)潛在場(chǎng)景,預(yù)測(cè)對(duì)手可能的反應(yīng),并評(píng)估針對(duì)特定目標(biāo)部署特定武器的可能效果和損害。在這些任務(wù)中使用人工智能決策支持系統(tǒng)有助于制定或調(diào)整軍事戰(zhàn)略。然而,對(duì)于在戰(zhàn)略層面使用人工智能決策支持系統(tǒng)的情況,公眾所知甚少。截至2024年9月,大多數(shù)報(bào)告提到的人工智能決策支持系統(tǒng)在武力使用決策中的案例集中在軍事行動(dòng)和戰(zhàn)術(shù)層面。
在(整個(gè))軍事行動(dòng)層面(operational level),戰(zhàn)略目標(biāo)和指導(dǎo)方針被轉(zhuǎn)化為戰(zhàn)術(shù)部隊(duì)的具體任務(wù),這一過程包括多個(gè)武力使用的關(guān)鍵決策,如目標(biāo)的分析、選擇和優(yōu)先級(jí)排序,以及選擇武器和評(píng)估附帶損害后果。決策者可以利用人工智能決策支持系統(tǒng)探測(cè)物體和人員,處理數(shù)據(jù)和情報(bào),以及評(píng)估潛在目標(biāo)的合法性。尤其是那些基于機(jī)器學(xué)習(xí)的系統(tǒng)還能通過社交網(wǎng)絡(luò)分析、預(yù)測(cè)個(gè)體行為特征。例如,依據(jù)目標(biāo)人員在組織網(wǎng)絡(luò)中的關(guān)聯(lián)對(duì)象,推斷其與恐怖組織的疑似關(guān)聯(lián)度,或判定其在組織架構(gòu)中的層級(jí)地位。
在戰(zhàn)術(shù)層面(tactical level),決策者需要評(píng)估目標(biāo)的性質(zhì)、所使用的各種武器及其各自的影響,以及任何潛在的意外后果。與此同時(shí),決策者還決定是否需要調(diào)整裝備和軍事人員的部署,以符合法律、軍事原則或其他要求,并考慮戰(zhàn)場(chǎng)的實(shí)際情況。在執(zhí)行軍事任務(wù)時(shí),決策者會(huì)收集和評(píng)估信息及情報(bào),以識(shí)別和跟蹤目標(biāo),或進(jìn)行附帶損害評(píng)估,以決定是否繼續(xù)攻擊,或暫;蛉∠。此時(shí),融合了人工智能技術(shù)的決策支持系統(tǒng),可實(shí)時(shí)獲取戰(zhàn)場(chǎng)信息并為具體戰(zhàn)術(shù)決策提供可執(zhí)行建議。指揮官借助人工智能決策支持系統(tǒng),通過處理實(shí)時(shí)情報(bào)并綜合評(píng)估以下要素,確定所謂“最優(yōu)”武器選擇:(1)目標(biāo)地理位置;(2)武器打擊效能;(3)平民傷亡最小化方案。
軍事行動(dòng)層面和戰(zhàn)術(shù)層面的人工智能決策支持系統(tǒng)通常整合多源數(shù)據(jù),包括衛(wèi)星影像、地理定位信息、通信截獲情報(bào)。需要特別指出的是,部分系統(tǒng)僅提供態(tài)勢(shì)信息,而另外一些系統(tǒng)則具備生成情報(bào)的能力,可能對(duì)使用武力的決策產(chǎn)生實(shí)質(zhì)影響。在軍事決策體系中,人工智能決策支持系統(tǒng)常被整合至所謂“OODA循環(huán)模型”,即“觀察(Observe)—調(diào)整(Orient)—決策(Decide)—行動(dòng)(Act)”的動(dòng)態(tài)決策框架。這一模型概述了隨著事件發(fā)生而不斷演變的軍事決策過程。在“觀察”階段,涉及收集相關(guān)數(shù)據(jù)和信息,這些數(shù)據(jù)和信息在對(duì)目標(biāo)進(jìn)行識(shí)別和定位(targeting)的時(shí)候被分析和處理。在“調(diào)整”階段,根據(jù)上一階段獲取的信息,對(duì)原有計(jì)劃進(jìn)行調(diào)整。在“決策”階段,指揮官選擇最佳行動(dòng)方案,而在“行動(dòng)”階段,人員根據(jù)情況執(zhí)行或重新評(píng)估行動(dòng)。理論上,人工智能決策支持系統(tǒng)可以在整個(gè)“OODA循環(huán)”中使用。這個(gè)所謂的“OODA循環(huán)”代表了軍事行動(dòng)的整個(gè)決策過程。
絕大多數(shù)軍事決策均可被視為與武力使用存在直接或間接關(guān)聯(lián)。例如,后勤決策(如兵力部署規(guī)劃、武器裝備運(yùn)輸調(diào)度)雖不直接涉及武力使用,卻通過保障作戰(zhàn)效能對(duì)其施加間接影響。然而,當(dāng)前人工智能決策支持系統(tǒng)在軍事領(lǐng)域所引發(fā)的爭(zhēng)議主要集中于使用武力的決策系統(tǒng)。正如有學(xué)者所言,人工智能最具戰(zhàn)略意義的發(fā)展方向是軍事情報(bào)領(lǐng)域,尤其是用于目標(biāo)識(shí)別和定位。因此,本文將聚焦于涉及目標(biāo)識(shí)別、定位與武力使用等軍事決策環(huán)節(jié)的人工智能支持系統(tǒng)。
三、當(dāng)前人工智能軍事決策支持系統(tǒng)的典型代表
在俄烏戰(zhàn)場(chǎng)上,無人機(jī)已造成七成以上傷亡,成為戰(zhàn)場(chǎng)殺傷的主要來源,烏克蘭與俄羅斯正深陷一場(chǎng)人工智能驅(qū)動(dòng)的無人機(jī)對(duì)抗,雙方競(jìng)相研發(fā)自主技術(shù)以奪取戰(zhàn)場(chǎng)優(yōu)勢(shì)。在另一個(gè)戰(zhàn)場(chǎng)上,以色列對(duì)哈馬斯等武裝組織的連續(xù)軍事行動(dòng),尤其是其所導(dǎo)致的大量平民傷亡引起國際社會(huì)的廣泛關(guān)注。以色列國防軍所使用的目標(biāo)識(shí)別和定位機(jī)制——尤其是在作戰(zhàn)流程中使用的多款人工智能系統(tǒng)——已成為最具爭(zhēng)議的焦點(diǎn)。本文接下來將選取當(dāng)今世界上最具代表性的幾種人工智能軍事決策支持系統(tǒng),簡(jiǎn)要介紹其基本功能和技術(shù)特征。
(一)美國的“梅文”計(jì)劃
美國國防部長期致力于軍事決策數(shù)據(jù)的自動(dòng)化處理與情報(bào)分析,其近期標(biāo)志性行動(dòng)是所謂“算法戰(zhàn)爭(zhēng)跨職能團(tuán)隊(duì)”計(jì)劃(“Algorithmic Warfare Cross-Functional Team” programme),也稱為“梅文”(Maven)計(jì)劃!懊肺摹庇(jì)劃是美國國防部于2017年啟動(dòng)的一項(xiàng)計(jì)劃,旨在自動(dòng)化分析無人機(jī)視頻片段,以幫助識(shí)別敵方目標(biāo);訓(xùn)練用于識(shí)別特征的算法幫助處理海量數(shù)據(jù)。作為國防部核心倡議,“梅文”計(jì)劃旨在通過計(jì)算機(jī)視覺和機(jī)器學(xué)習(xí)算法,基于無人機(jī)影像等預(yù)設(shè)數(shù)據(jù)庫實(shí)現(xiàn)實(shí)時(shí)目標(biāo)識(shí)別。與多數(shù)人工智能系統(tǒng)相似,該計(jì)劃下開發(fā)的技術(shù)可用于多種用途,包括軍事行動(dòng)規(guī)劃和目標(biāo)識(shí)別與定位。
“梅文”計(jì)劃能夠識(shí)別和分類物體,準(zhǔn)確區(qū)分坦克、卡車、雷達(dá)等系統(tǒng)。通過將這些數(shù)據(jù)整合到戰(zhàn)場(chǎng)指揮界面中,“梅文”計(jì)劃不僅能識(shí)別目標(biāo),還能推薦最佳打擊策略!懊肺摹庇(jì)劃的功能類似于大規(guī)模面部識(shí)別軟件,就像此類系統(tǒng)可以在機(jī)場(chǎng)分析人群以識(shí)別特定個(gè)體一樣,“梅文”計(jì)劃處理戰(zhàn)場(chǎng)數(shù)據(jù)流以定位潛在威脅。該系統(tǒng)的最重大進(jìn)步之一是與地面移動(dòng)目標(biāo)指示(ground-moving target indicator)衛(wèi)星的整合,這些衛(wèi)星使用雷達(dá)探測(cè)運(yùn)動(dòng),即使在云層或夜間也能持續(xù)跟蹤目標(biāo)。這種能力使其克服了傳統(tǒng)光學(xué)系統(tǒng)的局限性,確保不間斷地監(jiān)控和識(shí)別地面目標(biāo)。
“梅文”計(jì)劃現(xiàn)在使用更多類型的數(shù)據(jù):不僅包括衛(wèi)星圖像和無人機(jī)視頻,還包括紅外傳感器、地理位置標(biāo)簽和多光譜傳感器等所收集的信息。處理后的信息隨后在“梅文”計(jì)劃中呈現(xiàn),該系統(tǒng)界面“整合了多個(gè)數(shù)據(jù)流”,使“指揮官能夠一覽整個(gè)戰(zhàn)場(chǎng)”。例如,一些黃色框會(huì)高亮顯示潛在目標(biāo),如船只或軍事基地,而其他藍(lán)色框則會(huì)劃定禁打擊區(qū)域,如民用基礎(chǔ)設(shè)施。隨后,指揮官將根據(jù)潛在行動(dòng)方案作出決定,可能涉及使用武力。
(二)烏克蘭的“三角洲”系統(tǒng)和“復(fù)仇者”系統(tǒng)
2022年2月24日俄烏沖突爆發(fā)后,俄烏戰(zhàn)場(chǎng)成為了人工智能戰(zhàn)的“試驗(yàn)場(chǎng)”,人工智能技術(shù)在武器系統(tǒng)(尤其是無人機(jī))、情報(bào)分析和網(wǎng)絡(luò)安全等領(lǐng)域發(fā)揮了前所未有的作用。當(dāng)前烏克蘭所使用的人工智能技術(shù)中,最為知名的當(dāng)屬“三角洲”(Delta)系統(tǒng)和“復(fù)仇者”(Avengers)系統(tǒng),然而,由于安全和保密的緣故,公眾對(duì)于這兩個(gè)系統(tǒng)所知不多。
“三角洲”系統(tǒng)是烏克蘭軍事部門在俄烏沖突爆發(fā)后開發(fā)的一種態(tài)勢(shì)感知(situational awareness)和戰(zhàn)場(chǎng)管理系統(tǒng)。該系統(tǒng)整合來自軍事偵察單位、政府民事官員、外國情報(bào)伙伴等不同參與者的信息,其來源包括商業(yè)和軍用無人機(jī)、傳感器網(wǎng)絡(luò)、衛(wèi)星圖像和伙伴國的情報(bào)。該系統(tǒng)涵蓋了廣泛的戰(zhàn)場(chǎng)管理任務(wù),包括作戰(zhàn)任務(wù)的規(guī)劃、單位間的協(xié)調(diào)以及關(guān)于敵方位置信息的加密交換。“三角洲”系統(tǒng)所取得的成功引起了北約的關(guān)注,已有北約成員國計(jì)劃向?yàn)蹩颂m購買該系統(tǒng)。
對(duì)于“復(fù)仇者”系統(tǒng)公眾所知更少。該系統(tǒng)是“三角洲”生態(tài)系統(tǒng)的重要組成部分,由烏克蘭國防部創(chuàng)新中心開發(fā),通過自動(dòng)分析無人機(jī)和固定攝像機(jī)拍攝的視頻實(shí)現(xiàn)目標(biāo)識(shí)別和目標(biāo)鎖定。在“復(fù)仇者”系統(tǒng)的幫助下,操作員能夠更快速、更高效地作出決策,并降低因疲勞而犯錯(cuò)的風(fēng)險(xiǎn)。同時(shí),該平臺(tái)不斷提升對(duì)各種軍事裝備的探測(cè)能力,即使在復(fù)雜條件下也能有效發(fā)現(xiàn)隱藏在樹林中的坦克,或在泥濘道路上行駛的步兵戰(zhàn)車。據(jù)媒體報(bào)道,“復(fù)仇者”系統(tǒng)在視頻流中檢測(cè)出了70%的敵方裝備,僅需22秒即可鎖定單一目標(biāo)。
(三)以色列的“福音”“薰衣草”和“爸爸去哪兒了”系統(tǒng)
雖然公眾對(duì)以色列的人工智能軍事決策支持系統(tǒng)的相關(guān)信息仍然所知不多,但是相較其他軍事強(qiáng)國而言,媒體對(duì)以色列的報(bào)道仍然是最為詳細(xì)的。而且,由于以色列與其交戰(zhàn)對(duì)手(例如哈馬斯)相比在軍事技術(shù)方面具有明顯的領(lǐng)先優(yōu)勢(shì),因此它在戰(zhàn)場(chǎng)上也有余力使用融合了人工智能技術(shù)的精確打擊手段。目前,媒體提到以色列軍方使用的人工智能決策支持系統(tǒng)有七八種之多,本文挑選其中最具代表性的三種進(jìn)行考察,它們分別是“福音”(The Gospel)系統(tǒng)、“薰衣草”(Lavender)系統(tǒng)和“爸爸去哪兒了”(Where’s Daddy?)系統(tǒng)。
“福音”系統(tǒng)通過算法處理監(jiān)控?cái)?shù)據(jù)以生成目標(biāo)清單。據(jù)媒體報(bào)道,該系統(tǒng)將非人員目標(biāo)分為3類:軍事目標(biāo)(含地道等地下設(shè)施)、涉恐嫌疑人住宅以及所謂“震懾目標(biāo)”——即通過攻擊民用設(shè)施“制造沖擊”,從而“迫使平民向哈馬斯施壓”。相較于下文中將要介紹的“薰衣草”系統(tǒng),“福音”的運(yùn)作機(jī)制公開信息要少一些,但是,二者很可能同樣采用正類無標(biāo)簽學(xué)習(xí)技術(shù)(positive unlabeled learning)進(jìn)行目標(biāo)判定。該系統(tǒng)的實(shí)質(zhì)功能是界定建筑屬于民用設(shè)施抑或軍事目標(biāo),這種區(qū)分正是國際人道法要求攻擊方必須履行的義務(wù)。
“薰衣草”系統(tǒng)運(yùn)用機(jī)器學(xué)習(xí)技術(shù),對(duì)加沙居民與武裝組織存在關(guān)聯(lián)的概率進(jìn)行量化評(píng)分。據(jù)報(bào)道,以色列軍官負(fù)責(zé)設(shè)定判定閾值——超過該數(shù)值的個(gè)體即被鎖定為攻擊對(duì)象,以軍方曾含糊其辭地承認(rèn)存在類似工具,僅稱其為“用于交叉驗(yàn)證情報(bào)來源的數(shù)據(jù)庫”。根據(jù)媒體對(duì)以軍情報(bào)人員的訪談,“薰衣草”系統(tǒng)生成的行動(dòng)建議會(huì)提交給以軍情報(bào)分析人員審核,審核后的建議有時(shí)會(huì)呈報(bào)軍事指揮官。最終是否對(duì)目標(biāo)實(shí)施打擊的決定權(quán)由軍事指揮官掌握。“薰衣草”系統(tǒng)基一種機(jī)器學(xué)習(xí)算法,其識(shí)別機(jī)制源于對(duì)多源數(shù)據(jù)的綜合分析,包括目標(biāo)人物的家族關(guān)系、手機(jī)通信數(shù)據(jù)以及線上線下行為監(jiān)控。與僅用于區(qū)分戰(zhàn)場(chǎng)物體的分類算法不同,“薰衣草”系統(tǒng)的目標(biāo)發(fā)現(xiàn)功能無法通過偶爾收集標(biāo)注訓(xùn)練數(shù)據(jù)或合成輸入數(shù)據(jù)來實(shí)現(xiàn)。從本質(zhì)而言,此類系統(tǒng)必須依賴持續(xù)監(jiān)控目標(biāo)群體的大規(guī)模監(jiān)控基礎(chǔ)設(shè)施,唯有通過這種不間斷監(jiān)控,系統(tǒng)才能檢測(cè)出可能的敵對(duì)行為、需要采取安全干預(yù)(包括致命性打擊行動(dòng))的異常行為模式。
“爸爸去哪兒了”系統(tǒng)利用了手機(jī)定位追蹤技術(shù),當(dāng)被鎖定為軍事目標(biāo)的人員進(jìn)入特定地點(diǎn)(報(bào)道稱多為家庭住所)時(shí),該系統(tǒng)會(huì)實(shí)時(shí)向以軍操作員發(fā)出警報(bào),該地點(diǎn)隨即成為可實(shí)施打擊的位置。對(duì)于以色列使用人工智能在加沙“摧毀家園”的報(bào)道,聯(lián)合國專家表示:“如果這一令人震驚的披露得到證實(shí),即以色列軍方確實(shí)使用了‘福音’‘薰衣草’和‘爸爸去哪兒了’等人工智能系統(tǒng)實(shí)施攻擊,再加上以色列并未充分遵守人權(quán)盡職原則以避免或減少平民傷亡和基礎(chǔ)設(shè)施破壞,就可以解釋為何加沙的死亡人數(shù)和房屋破壞程度如此之高”,“我們尤其感到關(guān)切的是,以色列……對(duì)可能同在打擊范圍內(nèi)或附近的平民的安危毫不關(guān)心”。
各國研發(fā)和部署各種人工智能軍事決策支持系統(tǒng),主要是著眼于其軍事利益,然而這些系統(tǒng)在實(shí)現(xiàn)人道主義目的方面的潛力也不容忽視。從軍事角度看,將人工智能決策支持系統(tǒng)融入武力使用決策的主要優(yōu)勢(shì)在于速度與規(guī)模的雙重提升,其核心價(jià)值正在于運(yùn)用計(jì)算科學(xué)、人工智能及機(jī)器學(xué)習(xí)技術(shù),協(xié)助處理分析跨源情報(bào)信息流,這在作戰(zhàn)與目標(biāo)鎖定環(huán)節(jié)尤為關(guān)鍵。這是因?yàn)樗俣扰c效率被視為戰(zhàn)場(chǎng)制勝要素。采用人工智能系統(tǒng)加速信息處理,常與縮短“OODA循環(huán)”直接關(guān)聯(lián),使指揮官得以更快決策,進(jìn)而推動(dòng)其軍隊(duì)比對(duì)手更迅速達(dá)成作戰(zhàn)目標(biāo)。與此同時(shí),專家們也注意到了人工智能決策支持系統(tǒng)蘊(yùn)含的實(shí)現(xiàn)人道主義目的的潛力。配備高效決策工具可提升遵守國際人道法的可能性,例如可以為確保有關(guān)決策遵守比例原則、區(qū)分原則及預(yù)防原則提供關(guān)鍵信息支撐。正如紅十字國際委員會(huì)所強(qiáng)調(diào),基于人工智能與機(jī)器學(xué)習(xí)的系統(tǒng)“能夠加速擴(kuò)大可用信息的收集與分析范圍”,從而“可以輔助人類在軍事行動(dòng)中更好地遵守國際人道法,最大限度降低平民風(fēng)險(xiǎn)”。然而,同樣不容忽視的是日益復(fù)雜的嵌入式人工智能系統(tǒng)(尤其是基于數(shù)據(jù)驅(qū)動(dòng)型人工智能系統(tǒng))已引發(fā)新的特定風(fēng)險(xiǎn)。此類挑戰(zhàn)與人工智能在其他領(lǐng)域的應(yīng)用困境具有同源性,但在武裝沖突的特殊場(chǎng)景與軍事決策的緊迫性疊加作用下,其風(fēng)險(xiǎn)可能被顯著放大。鑒于此類決策攸關(guān)民眾生命尊嚴(yán)及社群存續(xù),這種風(fēng)險(xiǎn)放大效應(yīng)尤需警惕。
四、當(dāng)前人工智能軍事決策支持系統(tǒng)對(duì)國際人道法的挑戰(zhàn)
根據(jù)國際人道法,任何目標(biāo)定位和攻擊均需遵守區(qū)分原則、比例原則,并應(yīng)采取一切可行的預(yù)防措施降低對(duì)平民的傷害。因此,各國在研發(fā)各種人工智能軍事決策支持系統(tǒng)時(shí),除追求軍事效能外,還應(yīng)考慮如何遵守國際人道法;谌斯ぶ悄芎蜋C(jī)器學(xué)習(xí)的決策支持系統(tǒng),或許能通過更快、更廣泛地收集和分析可用信息,幫助人類在開展敵對(duì)行動(dòng)時(shí)作出更優(yōu)決策,從而遵守國際人道法并減少對(duì)平民的風(fēng)險(xiǎn)。然而,過度依賴算法生成的分析或預(yù)測(cè),也可能導(dǎo)致更糟糕的決策或違反國際人道法的行為,并加劇平民面臨的風(fēng)險(xiǎn),尤其是考慮到當(dāng)前技術(shù)存在的局限性(如不可預(yù)測(cè)性、可解釋性的缺失、偏見)更是如此。
(一)人機(jī)交互中的“語義鴻溝”風(fēng)險(xiǎn)
“語義鴻溝”(semantic gap)是指人工智能系統(tǒng)在抽象推理任務(wù)中的一種能力缺陷,即相較于人類決策者,人工智能決策支持系統(tǒng)雖能在技術(shù)上識(shí)別訓(xùn)練過的目標(biāo),卻無法理解其深層含義與情境關(guān)聯(lián)。這種認(rèn)知缺失將顯著提升系統(tǒng)“誤判”風(fēng)險(xiǎn)(例如對(duì)人員或物體的錯(cuò)誤標(biāo)定),而類似錯(cuò)誤在人類決策中幾乎不會(huì)發(fā)生。在武力使用決策語境下,此類標(biāo)定行為攸關(guān)生死。事實(shí)上,目標(biāo)識(shí)別和定位的過程可能引發(fā)一系列國際人道法問題,包括對(duì)個(gè)體受保護(hù)地位的判定,而這一判定直接決定其是否可被合法攻擊。而且更深層隱患在于,國際人道法要求武力使用的法律評(píng)估必須由人類完成,且其核心規(guī)則依賴人類的價(jià)值判斷,例如“存疑時(shí)推定平民地位”原則,或?qū)Α邦A(yù)期附帶平民傷害是否過度”的裁量(需對(duì)照具體軍事利益進(jìn)行評(píng)估)。人類決策者在這些價(jià)值判斷中面臨巨大挑戰(zhàn),此類主觀裁量本質(zhì)上也無法被編碼為人工智能系統(tǒng)的機(jī)器流程,若允許人工智能系統(tǒng)執(zhí)行此類價(jià)值判斷,不僅將對(duì)民眾生命造成不可逆的影響,更可能侵蝕人類尊嚴(yán)的根基。例如有媒體報(bào)道,2023年沖突爆發(fā)的初期階段,以色列軍方采取了前所未有的舉措:每殺死一名“薰衣草”系統(tǒng)標(biāo)記的哈馬斯初級(jí)分子,就允許殺死最多15—20名平民,而且,如果目標(biāo)是哈馬斯?fàn)I長或旅長級(jí)別的高級(jí)官員,以色列軍方曾多次授權(quán)在暗殺一名指揮官時(shí)殺死超過100名平民。然而,在哈馬斯實(shí)施“阿克薩洪水”行動(dòng)之前,以色列軍方在暗殺低級(jí)別武裝分子時(shí),不允許造成任何“附帶損害”。當(dāng)前這種情況嚴(yán)重違反了保護(hù)平民的區(qū)分原則和比例原則,與國際人道法的宗旨背道而馳。
(二)自動(dòng)化偏見的風(fēng)險(xiǎn)
自動(dòng)化偏見(Automation bias)指人類過度依賴自動(dòng)化系統(tǒng)的認(rèn)知傾向。人們常將繁瑣任務(wù)委托給技術(shù)系統(tǒng),認(rèn)為自動(dòng)化分析能力具有天然優(yōu)勢(shì)。其典型表現(xiàn)為兩類失誤:遺漏型失誤(操作員忽略系統(tǒng)未能識(shí)別的異常)與盲從型失誤(操作員未經(jīng)審慎判斷即采納系統(tǒng)的錯(cuò)誤建議);谌斯ぶ悄艿臎Q策支持系統(tǒng)以超高速率分析數(shù)據(jù)并提出行動(dòng)方案,其準(zhǔn)確性常優(yōu)于人類,導(dǎo)致用戶自然產(chǎn)生信任依賴。這可能使操作者背離專業(yè)訓(xùn)練與戰(zhàn)場(chǎng)直覺,即使在不適用場(chǎng)景下仍盲從系統(tǒng)輸出。若系統(tǒng)建議恰好符合操作者偏好,由于用戶更傾向于接受“舒適區(qū)”內(nèi)的方案,該偏見將顯著加劇。加之人工智能技術(shù)的“黑箱”特性使系統(tǒng)局限性與偏差難以察覺,認(rèn)知鴻溝進(jìn)一步催生非理性信任。在軍事決策中,自動(dòng)化偏見將引發(fā)災(zāi)難性后果:操作員若對(duì)人工智能的建議全盤接納,可能導(dǎo)致戰(zhàn)場(chǎng)附帶損傷與非必要?dú),違反國際人道法的比例原則和區(qū)分原則,最終釀成不可逆的人道代價(jià)。
事實(shí)上,人工智能決策系統(tǒng)生成目標(biāo)的速度和規(guī)模也幾乎沒有給人類判斷留有空間。人工智能系統(tǒng)的運(yùn)行速度和規(guī)模使得人類操作員很難真正評(píng)估是否應(yīng)當(dāng)遵循某一目標(biāo)定位建議。因此,在使用半自主系統(tǒng)時(shí),操作員對(duì)結(jié)果的控制可能流于表面,操作員的作為和不作為可能無法為歸責(zé)提供充分依據(jù)。根據(jù)《+972雜志》報(bào)道,“福音”系統(tǒng)每天可以生成100個(gè)目標(biāo),而以色列軍方以往每年只能生成50個(gè)目標(biāo);而根據(jù)《+972雜志》的另一篇報(bào)道,以色列軍方在軍事行動(dòng)初期全面批準(zhǔn)軍官采用“薰衣草”系統(tǒng)提供的殺戮名單,無需徹底核實(shí)機(jī)器作出這些選擇的原因,也無需審查其所依據(jù)的原始情報(bào)數(shù)據(jù),人類操作員通常只是機(jī)器決策的“橡皮圖章”(a rubber stamp)。在通常情況下,盡管人類操作員已經(jīng)知道該系統(tǒng)存在大約10%的錯(cuò)誤率,且偶爾會(huì)標(biāo)記僅與武裝組織有微弱關(guān)聯(lián)或毫無關(guān)聯(lián)的人員,他們?cè)谑跈?quán)轟炸前仍然只會(huì)親自對(duì)每個(gè)目標(biāo)進(jìn)行“20秒”左右的觀察,而其作用只是為了確!稗挂虏荨睒(biāo)記的目標(biāo)是男性。
(三)算法偏見的風(fēng)險(xiǎn)
“人工智能偏見”經(jīng)常是指“算法偏見”(algorithmic bias),它是當(dāng)前全世界人工智能法律與政策辯論的核心議題。事實(shí)上,算法偏見通常不是由算法本身引起的,而是由數(shù)據(jù)科學(xué)團(tuán)隊(duì)收集和編碼訓(xùn)練數(shù)據(jù)的方式導(dǎo)致的,具體原因包括如下4個(gè)方面。(1)訓(xùn)練數(shù)據(jù)中的偏見。有缺陷的數(shù)據(jù)是指不具代表性、缺乏信息、有歷史偏見或其他“糟糕”的數(shù)據(jù)。它導(dǎo)致算法產(chǎn)生不公平的結(jié)果,并放大數(shù)據(jù)中的任何偏見。在訓(xùn)練階段,如果數(shù)據(jù)分類或評(píng)估不正確,也會(huì)產(chǎn)生偏見。(2)算法設(shè)計(jì)中的偏見。算法設(shè)計(jì)(編程錯(cuò)誤)也會(huì)帶來偏見,例如人工智能設(shè)計(jì)師在設(shè)計(jì)過程中對(duì)相關(guān)因素的權(quán)重不公平,可能在不知不覺中轉(zhuǎn)移到系統(tǒng)中。加權(quán)通常是一種避免偏見的技術(shù),因?yàn)樗婕罢{(diào)整數(shù)據(jù)以更好地反映實(shí)際人群。然而,它可能需要設(shè)計(jì)人員作出假設(shè),這可能導(dǎo)致不準(zhǔn)確并引入偏見。開發(fā)人員還可能根據(jù)自己有意識(shí)或無意識(shí)的偏見,在算法中植入主觀規(guī)則。(3)代理數(shù)據(jù)中的偏見。人工智能系統(tǒng)有時(shí)使用代理作為受保護(hù)屬性的替代品,例如種族或性別。但是,代理可能會(huì)無意中產(chǎn)生偏見,因?yàn)樗鼈兛赡芘c原本要替換的敏感屬性存在錯(cuò)誤或意外的關(guān)聯(lián)。(4)評(píng)估中的偏見。如果對(duì)算法結(jié)果的解讀是基于相關(guān)個(gè)人的成見,而不是客觀的結(jié)果,就會(huì)出現(xiàn)評(píng)估偏見。即使算法是中立的、數(shù)據(jù)驅(qū)動(dòng)的,個(gè)人或企業(yè)對(duì)算法輸出結(jié)果的應(yīng)用也可能導(dǎo)致不公平的結(jié)果,這取決于他們?nèi)绾卫斫廨敵鼋Y(jié)果。
在武裝沖突中,很難獲得針對(duì)特定軍事決策任務(wù)的高質(zhì)量、代表性訓(xùn)練數(shù)據(jù)。而且,在軍事領(lǐng)域中,這些數(shù)據(jù)集及其包含的假設(shè)缺乏透明度。因此,人工智能決策支持系統(tǒng)生成“殺戮清單”(kill list)的能力尤為令人擔(dān)憂。事實(shí)表明,這一過程所依賴的數(shù)據(jù)輸入本身就帶有已存在的社會(huì)偏見。這類數(shù)據(jù)會(huì)包含各類代理標(biāo)簽,例如用于識(shí)別恐怖分子嫌疑人的特定特征,而這些特征很可能隱含著既有的偏見,包括顯性和隱性的種族及身份刻板印象。算法偏見導(dǎo)致人工智能決策支持系統(tǒng)在識(shí)別真正目標(biāo)時(shí)可能發(fā)生錯(cuò)誤和偏差,進(jìn)而削弱了依賴此類系統(tǒng)的人類操作員遵守國際人道法(尤其是區(qū)分原則和比例原則)的能力。
五、中國的應(yīng)對(duì)策略
中國高度重視人工智能軍事應(yīng)用帶來的安全風(fēng)險(xiǎn),呼吁各國尤其是大國對(duì)在軍事領(lǐng)域研發(fā)和使用人工智能技術(shù)采取慎重負(fù)責(zé)的態(tài)度,反對(duì)利用人工智能技術(shù)優(yōu)勢(shì)危害他國主權(quán)和領(lǐng)土安全。雖然人工智能決策支持系統(tǒng)只是一種數(shù)字工具,而不是武器,但是它一旦應(yīng)用于軍事領(lǐng)域就應(yīng)當(dāng)受到國際人道法的約束。正如紅十字國際委員會(huì)所強(qiáng)調(diào):“任何新的戰(zhàn)爭(zhēng)技術(shù)都必須在使用時(shí)符合現(xiàn)有國際人道法的規(guī)則,并且必須能夠以符合這些規(guī)則的方式使用。這是最低要求。”根據(jù)國際人道法,武裝沖突當(dāng)事方歸根結(jié)底是人類,他們負(fù)有遵守法律的責(zé)任,且必須為違法行為承擔(dān)法律責(zé)任。因此,涉及攻擊合法性等法律問題時(shí),必須由人類行使最終判斷權(quán)。當(dāng)然,這并不意味著決策者不得借助人工智能決策支持系統(tǒng)等技術(shù)工具輔助武力使用決策,解決問題的關(guān)鍵在于,應(yīng)當(dāng)在國際人道法的框架下,保留人類的控制權(quán)。中國應(yīng)采取如下應(yīng)對(duì)策略。
(一)確保人類參與和作出判斷
國際人道法的約束對(duì)象是人類,遵守和執(zhí)行法律的主體是人類,因違法行為被追究責(zé)任的也必然是人類。尤其需要強(qiáng)調(diào)的是,作戰(zhàn)人員肩負(fù)著國際人道法對(duì)交戰(zhàn)規(guī)則所作要求的獨(dú)特裁量義務(wù)。這項(xiàng)責(zé)任既不能轉(zhuǎn)移給機(jī)器,也不能轉(zhuǎn)移給軟件程序或算法。中國明確提出,“研發(fā)主體不斷提高人工智能可解釋性和可預(yù)測(cè)性,提升數(shù)據(jù)真實(shí)性和準(zhǔn)確性,確保人工智能始終處于人類控制之下,打造可審核、可監(jiān)督、可追溯、可信賴的人工智能技術(shù)”。在無法解決人工智能系統(tǒng)不確定性、不可解釋性和不可預(yù)測(cè)性的前提下,為了確保對(duì)人工智能軍事決策系統(tǒng)的使用符合國際人道法,就只能確保適當(dāng)?shù)娜祟悈⑴c,保留人類發(fā)揮其應(yīng)有的能動(dòng)性。換言之,在開發(fā)與使用人工智能軍事決策支持系統(tǒng)的所有考量中,各國及武裝沖突當(dāng)事方必須確保:當(dāng)決策攸關(guān)受沖突影響民眾的生命權(quán)、自由權(quán)及人格尊嚴(yán)時(shí),人類控制權(quán)與判斷權(quán)必須得到保留。包括基于機(jī)器學(xué)習(xí)的決策支持系統(tǒng)在內(nèi),所有人工智能系統(tǒng)均應(yīng)定位為一種輔助支持工具,而非削弱或剝奪人類決策能力的手段。唯有如此,方能切實(shí)保障國際人道法得到遵守,并捍衛(wèi)基本倫理準(zhǔn)則。
(二)探索技術(shù)解決方案
中國高度重視人工智能的技術(shù)安全,呼吁“各國應(yīng)不斷提升人工智能技術(shù)的安全性、可靠性和可控性,增強(qiáng)對(duì)人工智能技術(shù)的安全評(píng)估和管控能力”。一般而言,人工智能決策支持系統(tǒng)輸出結(jié)果必須實(shí)現(xiàn)一定程度的可理解性和可預(yù)測(cè)性,在對(duì)武力使用作出決策時(shí)更是如此。因此,人工智能軍事決策支持系統(tǒng)的研發(fā)者和使用者在設(shè)計(jì)、開發(fā)和使用階段,不僅要考慮系統(tǒng)算法的先進(jìn)性,從而實(shí)現(xiàn)研發(fā)該系統(tǒng)的軍事目的,還要考慮如何提高該系統(tǒng)遵守國際人道法的能力。
一方面,要確保用于訓(xùn)練的數(shù)據(jù)的可靠性和代表性,降低出現(xiàn)算法偏見的風(fēng)險(xiǎn)。開發(fā)者和使用者應(yīng)確保用于人工智能決策支持系統(tǒng)輸入的數(shù)據(jù)集可靠、來源符合倫理且經(jīng)過驗(yàn)證,并能代表操作環(huán)境,包括該系統(tǒng)預(yù)期使用的人文環(huán)境和平民環(huán)境,這些數(shù)據(jù)對(duì)于區(qū)分軍事目標(biāo)與民用物體以及確保遵守國際人道法至關(guān)重要。與此同時(shí),開發(fā)者和使用者還應(yīng)采取措施,減輕人工智能決策支持系統(tǒng)設(shè)計(jì)和使用中基于性別、種族、民族、殘疾等類似形式的偏見,包括底層數(shù)據(jù)集和訓(xùn)練方法中的偏見。
另一方面,研發(fā)人員在開發(fā)階段要強(qiáng)化測(cè)試和驗(yàn)證環(huán)節(jié),確保系統(tǒng)的可靠性。開發(fā)人員應(yīng)確保人工智能決策支持系統(tǒng)在模擬武裝沖突復(fù)雜性的環(huán)境中接受嚴(yán)格測(cè)試和驗(yàn)證,包括快速變化的操作環(huán)境、對(duì)手可能采取的行為和欺騙策略,以及現(xiàn)實(shí)中的平民存在、活動(dòng)、行動(dòng)和反應(yīng);還應(yīng)確保在人工智能決策支持系統(tǒng)的預(yù)期用途發(fā)生變更,或進(jìn)行可能導(dǎo)致功能及效果改變的調(diào)整時(shí),必須重新實(shí)施系統(tǒng)測(cè)試。此外,當(dāng)行動(dòng)后評(píng)估、戰(zhàn)斗損傷評(píng)估或?qū)嶋H沖突運(yùn)用中的經(jīng)驗(yàn)教訓(xùn)表明系統(tǒng)輸出未達(dá)預(yù)期時(shí),開發(fā)方同樣應(yīng)啟動(dòng)重新測(cè)試程序。
(三)建立國內(nèi)法律審查制度
1977年《第一附加議定書》第36條“新武器”規(guī)定:“在研究、發(fā)展、取得或采用新的武器、作戰(zhàn)手段或方法時(shí),締約一方有義務(wù)斷定,在某些或所有情況下,該新的武器、作戰(zhàn)手段或方法的使用是否為本議定書或適用于該締約一方的任何其他國際法規(guī)則所禁止!彪m然,人工智能軍事決策支持系統(tǒng)本身并非武器,但是,它對(duì)武器的使用具有決定性的支持作用,而且,從廣義上講它實(shí)質(zhì)上已經(jīng)構(gòu)成了整個(gè)武器系統(tǒng)的一部分,因此毫無疑問應(yīng)當(dāng)遵守上述條款的規(guī)定。而且,還有學(xué)者認(rèn)為,“第36條的適用范圍可以認(rèn)為涵蓋不屬于‘武器’類別的人工智能應(yīng)用,因?yàn)檫@類系統(tǒng)符合‘戰(zhàn)爭(zhēng)手段或方法’的定義”。事實(shí)上,“方法和手段”涵蓋了最廣義的武器和使用方式,將人工智能軍事決策支持系統(tǒng)視為廣義的“武器系統(tǒng)”的一部分,還是“作戰(zhàn)手段或方法”,在實(shí)踐中并沒有什么區(qū)別。
中國明確提出,“各國應(yīng)確保新武器及其作戰(zhàn)手段符合國際人道主義法和其他適用的國際法,努力減少附帶傷亡、降低人員財(cái)產(chǎn)損失”。中國2010年頒布生效的《武器裝備管理?xiàng)l例》第2條規(guī)定,“本條例所稱武器裝備,是指實(shí)施和保障軍事行動(dòng)的武器、武器系統(tǒng)和軍事技術(shù)器材”,“武器裝備以及用于武器裝備的計(jì)算機(jī)軟件、專用元器件、配套產(chǎn)品、原材料的質(zhì)量管理,適用本條例”。這里的計(jì)算機(jī)“軟件”是與“硬件”相對(duì)應(yīng)的概念,中國法律對(duì)“計(jì)算機(jī)軟件”規(guī)定的外延非常寬泛,足以涵蓋人工智能軍事決策支持系統(tǒng),因此,中國應(yīng)當(dāng)將人工智能決策支持系統(tǒng)納入新武器的法律審查制度,在其作為武器系統(tǒng)的一部分或作為武器系統(tǒng)設(shè)計(jì)或預(yù)期使用過程的一部分時(shí)更是如此。例如,有學(xué)者建議在國家層面立法制定出臺(tái)《人工智能武器研發(fā)和使用審查條例》,以加強(qiáng)對(duì)人工智能武器的法律監(jiān)管。這些審查必須考慮相關(guān)系統(tǒng)技術(shù)特性,以及用戶與其交互時(shí)的認(rèn)知和行為傾向,如自動(dòng)化偏差,以及在武裝沖突中使用這些系統(tǒng)所面臨的特殊挑戰(zhàn)。而且,當(dāng)人工智能決策支持系統(tǒng)以新方式使用或被修改從而改變其功能或效果時(shí),必須更新此類審查。
(四)加強(qiáng)對(duì)人類用戶的培訓(xùn),明確有關(guān)系統(tǒng)的使用場(chǎng)景
中國不僅重視“對(duì)操作人員進(jìn)行必要的培訓(xùn)”,還要求“各國應(yīng)加強(qiáng)對(duì)人工智能潛在風(fēng)險(xiǎn)的研判”。因此,研發(fā)和部署人工智能決策支持系統(tǒng)的國家,應(yīng)確保任何使用者接受特定培訓(xùn),以充分了解系統(tǒng)如何運(yùn)作、如何生成輸出及其局限性和脆弱性(例如,易受對(duì)抗性攻擊的弱點(diǎn))。培訓(xùn)還應(yīng)使使用者能夠識(shí)別和緩解與此類系統(tǒng)交互時(shí)可能出現(xiàn)的人類認(rèn)知傾向(例如,自動(dòng)化偏差)的影響。這應(yīng)通過在現(xiàn)實(shí)環(huán)境中的持續(xù)培訓(xùn)、演習(xí)和模擬來補(bǔ)充。與此同時(shí),人工智能決策支持系統(tǒng)的使用必須限于經(jīng)過專門且嚴(yán)格測(cè)試的場(chǎng)景。例如,僅在晴朗天氣和白天操作中訓(xùn)練和測(cè)試以識(shí)別坦克的計(jì)算機(jī)視覺系統(tǒng),不應(yīng)在夜間操作或惡劣天氣條件下使用;基于同樣的理由,具有持續(xù)在線學(xué)習(xí)功能的人工智能決策支持系統(tǒng)因其不可預(yù)測(cè)性更高,故而要格外謹(jǐn)慎。有學(xué)者明確表示,不僅對(duì)人工智能決策支持系統(tǒng)在某些領(lǐng)域的使用要完全禁止,例如將其納入核武器的指揮和控制系統(tǒng)之中,而且,對(duì)于具有持續(xù)學(xué)習(xí)功能的人工智能決策支持系統(tǒng)的使用亦應(yīng)受到限制。
(五)保持人類控制,確,F(xiàn)有國際法問責(zé)機(jī)制有效運(yùn)行
中國明確宣布“各國應(yīng)始終堅(jiān)持人類是最終責(zé)任主體”,并且支持“建立人工智能問責(zé)機(jī)制”。對(duì)違反國際人道法的國家和個(gè)人進(jìn)行問責(zé),是確保國際人道法得到遵守的重要保障。人工智能輸出的各種技術(shù)指標(biāo)永遠(yuǎn)不能替代人類依法作出的判斷,例如判斷某人或某物是否可以成為合法攻擊目標(biāo)。這些法律判定的責(zé)任和問責(zé)(accountability)在于個(gè)人及其指揮官,不能轉(zhuǎn)移給機(jī)器或計(jì)算機(jī)程序;因?yàn)楸仨氂扇祟愖袷貒H人道法,所以需要人類對(duì)攻擊的合法性進(jìn)行判斷。同時(shí),人工智能決策支持系統(tǒng)的運(yùn)作方式以及人類用戶與其輸出的交互方式可能對(duì)問責(zé)程序帶來挑戰(zhàn),在執(zhí)行個(gè)人刑事責(zé)任時(shí)更是如此。
隨著人工智能決策支持系統(tǒng)所承擔(dān)任務(wù)的數(shù)量和范圍的增加,以及其操作的算法架構(gòu)變得更加復(fù)雜(包括通過使用機(jī)器學(xué)習(xí)),測(cè)試系統(tǒng)所有潛在錯(cuò)誤來源或識(shí)別系統(tǒng)遇到未專門設(shè)計(jì)或驗(yàn)證的情境變得更加困難,這導(dǎo)致對(duì)傳統(tǒng)戰(zhàn)爭(zhēng)責(zé)任追究渠道可能構(gòu)成難題。特別是基于機(jī)器學(xué)習(xí)的系統(tǒng),由于其擴(kuò)大了潛在不可追責(zé)的傷害范圍,更容易出現(xiàn)測(cè)試階段、先驗(yàn)使用和評(píng)審中無法預(yù)料的錯(cuò)誤模式,從而更傾向于以不可預(yù)測(cè)方式發(fā)生故障。而且,當(dāng)單一系統(tǒng)錯(cuò)誤貫穿決策全鏈條時(shí),則可能觸發(fā)責(zé)任彌散效應(yīng):眾多參與者相互推諉,皆以“無法為情境判斷失誤導(dǎo)致的損害負(fù)全責(zé)”為由規(guī)避責(zé)任。鑒于失誤既可能源于技術(shù)缺陷,亦可能來自人機(jī)交互故障,責(zé)任認(rèn)定還將延伸至系統(tǒng)開發(fā)商、制造商及數(shù)據(jù)供應(yīng)商。但是,對(duì)遠(yuǎn)離武力實(shí)施現(xiàn)場(chǎng)的這些主體追責(zé)面臨根本性困境。這些因素共同折射出與致命性自主武器系統(tǒng)如出一轍的“問責(zé)缺口”(accountability gap)風(fēng)險(xiǎn)。
六、結(jié)語
隨著人工智能技術(shù)在軍事領(lǐng)域日益廣泛的應(yīng)用,它所帶來的各種人道風(fēng)險(xiǎn)應(yīng)當(dāng)?shù)玫礁叨戎匾。從本文的論述中可以看到,這種新技術(shù)在提高作戰(zhàn)效能的同時(shí),也導(dǎo)致了人道災(zāi)難(主要是巨大的平民傷亡)的發(fā)生。整合了人工智能技術(shù)的軍事決策支持系統(tǒng),已經(jīng)被相關(guān)國家在沖突中廣泛使用,但是并未像致命性自主武器系統(tǒng)那樣得到國際社會(huì)的重視。本文系統(tǒng)梳理了人工智能決策支持系統(tǒng)的主要應(yīng)用場(chǎng)景和代表類型,深入分析了它所帶來的人道主義風(fēng)險(xiǎn)及其背后的技術(shù)和社會(huì)原因,并從中國的角度提出了應(yīng)對(duì)策略,希望能夠?yàn)槲覀兞私、重視和解決這個(gè)問題有所裨益。
作者:張衛(wèi)華,中國社會(huì)科學(xué)院國際法研究所助理研究員。
來源:《國際法研究》2025年第6期。
