

“半人馬”模型在國際象棋、醫(yī)療診斷和金融分析等領(lǐng)域的使用較為普遍,證明了人類直覺與AI協(xié)作,能夠超越任何一方獨(dú)立工作的表現(xiàn)。本世紀(jì)以來,當(dāng)人機(jī)團(tuán)隊(duì)首次在國際象棋比賽中戰(zhàn)勝人類選手后,“半人馬”這一概念被特別用來描述象棋大師與象棋軟件組隊(duì)參賽的方式,凸顯了人機(jī)協(xié)同優(yōu)勢。然而,當(dāng)這一組合被引入軍事領(lǐng)域,其帶來的風(fēng)險(xiǎn)和挑戰(zhàn),遠(yuǎn)超棋盤上的輸贏。
現(xiàn)代戰(zhàn)場態(tài)勢已高度“數(shù)據(jù)化”:前線各類傳感器網(wǎng)絡(luò)可實(shí)時(shí)回傳情報(bào),各類算法模型能夠預(yù)判敵情異常變動,網(wǎng)絡(luò)信息的流動速度遠(yuǎn)超傳統(tǒng)人力處理極限。生成式AI能在極短時(shí)間內(nèi)整合海量信息,生成多套作戰(zhàn)方案,甚至開展對抗推演。
在這一背景下,將AI嵌入指揮體系似乎順理成章。問題在于:隨著AI逐漸走上戰(zhàn)爭“指揮席”,人類究竟是獲得了更強(qiáng)的輔助決策能力,還是在“悄然間”讓渡軍事決策權(quán)?一旦算法參與到軍事決策當(dāng)中,造成的失誤將由誰來承擔(dān)?

美陸軍推出“新半人馬”模型,嘗試重新定義人機(jī)關(guān)系。這一模型提出一種分層級的人機(jī)協(xié)同體系,主張從“戰(zhàn)術(shù)—戰(zhàn)役—戰(zhàn)略”三個(gè)戰(zhàn)爭層級設(shè)計(jì)人機(jī)關(guān)系,而不是盲目地將AI嵌入所有決策環(huán)節(jié)。美陸軍稱,不同戰(zhàn)爭層級面臨的責(zé)任風(fēng)險(xiǎn)不同,需要不同的人機(jī)協(xié)同模式。
在戰(zhàn)略層面,AI可以承擔(dān)數(shù)據(jù)整合與趨勢預(yù)測,但政策判斷與戰(zhàn)略決策必須由指揮官完成。在戰(zhàn)役層面,需要保留明確的人工決策節(jié)點(diǎn),確保關(guān)鍵假設(shè)與決斷由指揮官確認(rèn)。在戰(zhàn)術(shù)層面,允許有限的“人在決策環(huán)外”的快速決策,同時(shí)優(yōu)先強(qiáng)化戰(zhàn)場信息支援,如態(tài)勢融合與風(fēng)險(xiǎn)預(yù)警。
這一設(shè)計(jì)背后,隱含著對人機(jī)協(xié)同失控風(fēng)險(xiǎn)的擔(dān)憂。在緊迫的時(shí)間壓力下,人類在潛移默化中將判斷權(quán)逐步“外包”給機(jī)器,從“人主導(dǎo)、機(jī)輔助”的“半人馬”模式,滑向“機(jī)主導(dǎo)、人執(zhí)行”的盲從狀態(tài)。這種風(fēng)險(xiǎn)不會在短時(shí)間內(nèi)集中爆發(fā),往往始于看似無害的便利。
例如模型能快速生成方案初稿,人類只需修改潤色即可;算法能迅速篩選作戰(zhàn)方案,人類只需判斷風(fēng)險(xiǎn)與可行性。久而久之,人類將習(xí)慣于在機(jī)器生成的框架內(nèi)思考,不再擅長從零開始獨(dú)立推演。這種對機(jī)器的依賴,在心理學(xué)上被稱為“自動化偏置”傾向,即當(dāng)機(jī)器表現(xiàn)穩(wěn)定、專業(yè)時(shí),即便生成的內(nèi)容缺乏充分驗(yàn)證,人們也更傾向于信任它。在軍事籌劃這類高風(fēng)險(xiǎn)環(huán)境中,這種傾向極具危險(xiǎn)性。

值得警惕的是,當(dāng)前部分兵棋推演實(shí)驗(yàn)顯示,生成式AI模型的輸出存在迎合傾向。面對不同提問方式時(shí),AI模型會調(diào)整立場甚至迎合提問者。這表明AI模型并非真正具備獨(dú)立判斷能力,其輸出高度依賴輸入信息與人機(jī)交互方式。若將其直接置于決策核心,風(fēng)險(xiǎn)不言而喻。
因此有研究者提出,不應(yīng)讓AI承擔(dān)完整的方案制定任務(wù),而應(yīng)將其定位為“漏洞掃描器”:與其讓AI代寫作戰(zhàn)計(jì)劃,不如讓它專門負(fù)責(zé)拆解計(jì)劃、檢驗(yàn)假設(shè)和查找風(fēng)險(xiǎn)。AI可以快速排除不可行方案,揭示潛在認(rèn)知盲點(diǎn),但不參與最終決策,這一角色定位似乎更符合當(dāng)前技術(shù)發(fā)展現(xiàn)狀。
美陸軍已經(jīng)開始這樣做了?!靶掳肴笋R”模型的核心目標(biāo),不是更快生成作戰(zhàn)方案,而是更快識別“壞方案”,并在復(fù)雜決策環(huán)境中保持清晰的責(zé)任鏈條。如果體系的設(shè)計(jì)能夠確保AI模型只提供速度與算力優(yōu)勢,不觸碰最終決策權(quán),AI將極大提升指揮決策質(zhì)量;反之,若人機(jī)責(zé)任邊界模糊,效率越高,隱藏風(fēng)險(xiǎn)反而越大。在軍事智能化浪潮席卷而來的今天,如何守住決策責(zé)任底線,值得深入思考。
來源:中國軍網(wǎng)、解放軍報(bào)、中國國防報(bào)等綜合
