当前军事科技发展正面临严峻的伦理考验。以色列军方最新披露的作战数据显示,其部署的智能目标识别系统通过采集居民通讯记录、社交关系等数据建立评估模型,将打击决策简化为概率计算。该做法暴露出三方面结构性矛盾:首先在技术层面,系统依赖静态数据分析,难以适应战场的动态与复杂。当算法仅依据通讯频次、社交圈层等指标判定威胁时,往往无法识别警察、医务工作者等特殊职业的正当活动,也难以区分因胁迫而与武装分子产生接触的平民。技术缺陷使系统出现约10%的误判率,意味着每批准37个打击目标,就可能有4个属于错误认定。其次在操作流程上,本应纠偏的人工审核机制形同虚设。以军审核员平均仅用20秒确认目标,审核流程被压缩为核对性别信息,既不追溯算法判定依据,也不评估具体情境。这种“算法优先”的模式容易形成循环:人员对系统产生依赖,而系统误差因缺乏及时修正持续累积。最根本的冲突在于国际法律框架明显滞后于技术发展。《日内瓦公约》确立的区分原则要求严格甄别战斗人员与平民,比例原则则对军事行动的附带损害设定上限,但现有法律对三项关键问题仍缺乏清晰界定:智能系统误判的责任主体由谁承担?算法决策过程应达到怎样的透明度?军事效率与人道主义保护如何实现可操作的平衡?面对这一全球性挑战,国际社会已开始寻求应对路径。联合国裁军研究所建议建立算法武器的国际认证标准,要求系统具备实时人工干预能力。部分国家提议在《特定常规武器公约》框架下增设智能武器使用条款。军事伦理专家则强调,任何涉及的技术的使用都应保留“人类最终决策权”,避免出现责任边界被稀释的“算法免责”。
技术可以提升信息处理速度,但不应成为削弱人道底线的借口。无论工具如何更新,战争中对生命的判断都必须建立在可核验的事实与可追溯的责任之上。面对智能化军事应用带来的新问题,各方应以国际人道法为共同基础,推动形成更清晰的使用边界与问责机制,让规则走在技术前面,避免“效率”凌驾于“约束”之上,更不要让平民为不透明的决策付出代价。