问题:围绕军方使用边界的争议仍升温。消息称,美国国防部与旧金山人工智能企业Anthropic在合作条款上僵持不下。此项目金额约2亿美元,涉及其模型在政府专项及涉密场景中的应用。分歧主要在于:软件供应商是否有权、以及以何种方式对军方的具体使用设置限制。美方防务部门希望对应的模型在军方体系内可用于“所有合法用途”,外界据此认为,美方意在弱化甚至取消面向普通用户设置的多项安全约束。 原因:战略压力与治理理念相互叠加,矛盾呈现结构性特征。一上,生成式模型正重塑情报分析、辅助决策、作战筹划和后勤保障等流程。为保持技术优势与体系效率,美国军方更倾向于获得更大的使用自由度、减少外部限制。尤其在实战或紧急行动中,军方强调指挥链条要快速闭环,难以接受在行动前后与供应商逐项确认使用场景的做法。另一上,Anthropic长期将“安全”作为核心定位,对模型用途设有明确红线。据报道,该公司反对两类用途:其一,利用模型对美国民众开展大规模监控;其二,将模型用于研发完全自主武器系统,即在缺乏人类介入的情况下自行选择并实施火力打击。企业治理强调可控与可追责,并关注技术外溢带来的伦理、法律与声誉风险。“效率优先”与“安全优先”的取向差异,使双方在条款表述、责任边界与事后审计机制上难以达成一致。 影响:合作走向将牵动军工采购与技术生态,外溢效应不容忽视。若项目中止,短期内可能打乱美国相应机构在涉密环境部署先进模型的节奏,并带来替代与磨合成本。消息称,美方官员也承认该公司模型在部分政府专项场景表现突出,这意味着一旦更换供应商,相关能力可能出现阶段性波动。更重要的是,此事折射出美国防务体系与私营科技企业的新型博弈:国家安全需求上升,政府希望将商业前沿技术快速纳入体系;但企业在合规、伦理与商业风险上的防线更紧,双方容易反复拉扯。若美方将相关企业视作“供应链风险”并寻求替代,可能加剧行业对政府采购政策不确定性的担忧,进而影响企业参与防务项目的意愿与投入节奏。此外,围绕自主武器与国内监控的争议,也可能更激化美国国内对技术治理的政治分歧,并在国际层面引发对军事化应用扩散的关注。 对策:建立可验证、可执行的“用途治理”框架,或是破局关键。业内普遍认为,用“全部放开”或“全面禁止”处理军方应用,都难以兼顾效率与风险控制。可能的路径包括:其一,按任务类型与敏感等级分层授权,明确哪些场景可用于信息整理、目标识别辅助、文档处理等低风险用途,哪些场景必须保留“人类在环/人类决策”机制。其二,引入可审计的技术与制度安排,如记录调用链路、设置访问权限、对关键环节实行强制人工确认,并在涉密网络中建立独立合规审查与事后复盘机制,以缓解“事后追问不可行”的矛盾。其三,完善合同责任与边界条款,对供应商责任、军方责任、事故处置与问责机制作出可操作约定,避免风险在模糊地带累积。其四,在不触及核心红线的前提下,优化沟通机制,建立常态化对接窗口与紧急情况下的预设流程,降低一线行动与企业治理之间的摩擦成本。 前景:军事应用规范或将进入“制度竞速”阶段,产业格局面临再平衡。生成式模型进入防务与安全领域已成现实,争议焦点将从“用不用”转向“怎么用、谁负责、如何监督”。若美国相关部门坚持以“所有合法用途”推动普遍松绑,短期或可提升落地速度,但也会放大误用滥用风险,并加剧企业与公众的信任压力。反之,若能形成更精细、可验证的治理标准,不仅有助于稳定合作,也可能为行业提供可复制的合规范式。另外,不同AI企业对军方合作的态度差异,或将带来市场竞争分化:一部分企业以更少限制换取订单,另一部分企业以更强约束维护长期声誉与合规底线。双方能否形成新平衡,取决于美国国内技术治理的制度安排、军方作战需求的现实压力,以及企业对风险与收益的重新评估。
Anthropic与美国国防部的分歧,折射出AI时代的核心难题:在国家安全与伦理责任、政府权力与企业自主、技术进步与公共利益之间如何划定边界。这不仅是商业条款之争,更关乎治理框架的探索。无论最终如何收场,这场博弈都将促使各方继续追问:谁来决定强大技术的使用方式,以及在全球竞争加剧的背景下,如何在维护国家利益与守住伦理底线之间找到更可持续的路径。