美国科技企业调整国防合作政策引发伦理争议 人工智能军事化应用风险引关注

问题——军用化边界趋于模糊,社会关切集中“可控性”和“可问责” 近年来,人工智能加速进入情报分析、指挥辅助、目标识别和后勤保障等环节,其“双重用途”特征愈发明显。多家外媒称,OpenAI近期调整了对外表述,表示愿在“合法用途”条款下推进与美国国防部门合作。此举被解读为释放更清晰的国防合作信号,也引发舆论追问:企业此前的伦理承诺是否被弱化、军民边界如何划定、关键算法如何避免被用于扩大杀伤等。 原因——地缘安全需求上升、产业竞争加剧与监管滞后叠加 一是安全压力与军备竞赛升温。多国将智能化能力视为新一轮战略竞争的关键,国防机构对数据处理、态势感知和决策支持的需求快速增长,带动采购与合作扩张。 二是产业格局变化带来“抢先布局”的动力。大模型研发投入高、商业化回报周期不确定,而稳定的政府合同可为企业提供现金流、算力与市场预期支撑。报道称,有关合作可能涉及较大金额及长期项目安排,继续强化了企业调整政策的动因。 三是规则供给不足。尽管一些企业提出自律原则或限制条款,但跨场景、跨部门的合规标准仍不统一,透明披露、第三方审计与责任追溯等机制不健全,使“合法用途”在落地时仍存在较大解释空间。 影响——技术扩散可能外溢至冲突场景,误判风险与人道后果受到关注 从风险链条看,若算法系统被用于目标筛选与打击决策支持,主要影响体现在三上: 其一,误判与偏差可能被放大。算法高度依赖数据质量与标注体系,训练数据不完整或存在偏见时,可能对人员身份与行为意图作出错误推断。 其二,责任边界更难厘清。模型提供方、系统集成方、使用单位与指挥决策层共同构成链条,一旦造成伤亡,责任容易被技术复杂性“稀释”,问责成本上升。 其三,行动门槛可能降低。自动化与远程化提升效率,但也可能削弱外部监督与内部审慎,带来更频繁、更密集的行动倾向。 需要指出,近期部分媒体调查提到,个别冲突地区曾使用算法系统辅助目标识别与筛选,并引发平民伤亡与人道关切。相关信息仍需更多权威渠道核实,但其提示的关键问题在于:当技术从“辅助分析”进入“影响生死”的关键环节,治理与审查的缺口可能直接转化为现实风险。 对策——以“可审计、可追责、可退出”为抓手完善治理闭环 业内人士认为,推动人工智能在安全领域应用,必须把底线规则落到可操作层面: 一要强化透明披露与第三方审计。对涉及军事与安全的合作项目,应建立更严格的信息披露与独立评估机制,在不危及国家安全和商业机密的前提下,尽可能明确使用边界、风控措施与监督流程。 二要落实“人在回路”的硬约束。对可能造成致命后果的场景,应以制度确保人类指挥链拥有最终决策权,并配套可验证的人工复核、分级授权与紧急叫停机制。 三要建立责任追溯机制。通过合同条款、技术水印、日志留存与模型行为记录等手段,明确供应商、集成商与使用方的责任分工,避免出现“出了事无人负责”。 四要推动国际规则对接。围绕自主武器系统、目标识别算法、数据来源与战场应用等基本规范,需要在更多多边框架下开展协商,降低误用、滥用与扩散风险。 前景——军用合作或将常态化,治理竞争将与技术竞争并行 从趋势看,人工智能与国防安全的结合仍将加深,相关合作更可能向“合规化、制度化、规模化”发展。,社会对技术伦理的要求也在提高:企业仅靠原则性表态已难以取信于公众,更需要用可验证的治理机制证明承诺。未来,谁能在提升能力的同时建立更可靠的安全护栏,谁就更可能在国际竞争中获得更持久的信任与合作空间。

人工智能的发展不应以弱化人类责任为代价。面对技术加速嵌入战争链条的现实,各方需要用制度划定底线、以透明增进信任、以问责约束滥用,在效率与人道之间作出清醒选择。能否守住“由人承担后果”的原则,将成为检验全球治理能力的重要标尺。