(问题)随着生成式技术能力跃升,军事信息化应用正从“数据处理工具”向“决策链条助手”延伸;美国国防部近日推出GenAI.mil平台,试图将商用大模型能力在安全框架内接入国防体系,标志着对应的探索从分散试点走向体系化推进。同时,欧洲、以色列等也在模拟推演、空战辅助与情报处理诸上持续进行技术验证与能力部署。技术进展引发关注的同时,一个核心矛盾愈发突出:强调零容错的军事决策场景中,生成式系统的可靠性、可解释性与责任边界仍难以满足现实要求。 (原因)一是训练数据与真实战场之间存在天然鸿沟。生成式系统往往依赖历史数据、演练数据与可获取的公开信息进行学习,而演练情景通常经过简化、参数可控,难以涵盖真实冲突中多变量耦合、强对抗、强噪声与突发事件叠加的复杂性。当情境发生偏离,系统可能在“看似合理”的语言结构中给出缺乏事实支撑的判断,形成所谓“幻觉”。二是决策过程存在黑箱特征。部分模型难以清晰呈现推理链路与证据来源,导致指挥员与审核人员难以迅速追溯错误根源、评估置信度并进行问责。三是战场环境对人机交互提出更高要求。高压、时间紧迫与信息不完整叠加,容易使人员对“逻辑连贯、表达自信”的输出产生过度依赖,深入放大偏差扩散的速度与范围。四是组织流程与规则体系仍在补课。技术上“能用”并不等于机制上“可控”,模型纳入作战流程涉及权限管理、数据分级、审查校核、记录留痕以及责任认定等配套制度,缺一不可。 (影响)从正面看,生成式技术在信息汇聚、文本整理、态势摘要、方案列举等上具备显著效率优势,能够短时间内为指挥员提供多个备选路径,改善传统流程中“人力搜集—人工比对—集中研判”的耗时瓶颈。在相关演训场景中,北约“雅典娜”等系统曾实现数分钟生成多套作战方案的能力展示;在飞行测试中,机载智能体被用于辅助机动与交战建议;在情报分析领域,也出现利用多源数据进行目标筛选与优先级排序的做法。这些尝试表明,技术有望在一定条件下提升决策准备效率与态势理解速度。 但从风险面看,若将生成式系统输出直接等同于“结论”或“命令依据”,可能导致误判、误击或资源错配,甚至引发更大范围的连锁后果。更值得警惕的是,当系统输出被嵌入指挥链后,其错误可能具备“规模化传播”特征:一次偏差经过自动化流程扩散到多个节点,形成“以错促错”的闭环。此外,若对外部商用能力的依赖加深,还可能引入供应链安全、数据主权、模型更新不可控等新问题,增加体系脆弱性。 (对策)多方观点指向同一原则:现阶段应以人机协同为主线,而非追求“自主决策”式替代。具体路径包括:第一,明确适用场景与风险等级。在低风险、可回滚的事务性环节,如信息整编、态势摘要、对照检索、文书生成等,允许更高程度自动化;在高风险、高对抗、难以纠错的关键决策环节,坚持“人最终负责、机仅供参考”的底线。第二,建立强制校核与证据链机制。要求系统输出同步给出信息来源、数据时间戳、置信区间或不确定性提示,并对关键结论设置“二次验证”门槛,避免把语言流畅当作可信。第三,强化可解释与可追溯能力建设。通过日志留痕、模型版本管理、提示词与数据输入记录等方式,确保事后复盘与责任认定有据可依。第四,推进安全治理与合规框架。围绕数据分级、权限控制、离线部署、红队测试、对抗样本验证等环节形成制度闭环,降低模型被诱导、被污染或被操纵的可能性。第五,加强人员训练与组织适配。把“如何与系统交互、如何识别幻觉、如何在时间压力下进行快速校核”纳入训练体系,避免出现盲从或过度排斥两种极端。 (前景)从趋势看,生成式技术进入军事体系并非短期现象,而是国防数字化发展的一部分。未来较可能形成分层应用格局:一上,面向指挥机构的决策支持系统将更多承担“提速”功能,即快速汇总、快速列举、快速推演;另一方面,在强对抗环境下,强调可验证、可控、可审计的专用模型与封闭数据体系将成为重点方向。与此同时,国际层面围绕军事智能应用的规则讨论、伦理争议与风险外溢问题或将升温,各国在提升能力的同时,也需面对技术扩散带来的安全治理挑战。
生成式AI为军事指挥带来了新工具,但其技术局限也引入了新风险;当前重点不是追求完全自主的AI,而是构建人机最佳协作模式。只有当AI作为决策辅助而非决策主体时,才能在确保人类主导的前提下发挥技术价值。这既是技术发展的需求,也是军事伦理的底线。