被美防务系统列为“供应链风险”后提起诉讼 Anthropic与联邦政府安全边界之争升级

一、事件起因:分歧积累,矛盾激化 当地时间9日,美国人工智能企业Anthropic分别向两家联邦法院提起诉讼,被告方涵盖美国国防部等联邦机构。

诉状显示,该公司认为五角大楼将其列为"供应链风险"对象的决定不仅缺乏法律依据,更构成对其宪法权利的侵犯,是一种带有明显报复性质的行政行为。

事件的导火索在于双方对人工智能技术军事应用范围的根本分歧。

Anthropic明确反对将其技术用于由人工智能全程控制的自主武器系统,亦不支持以该技术在美国境内实施大规模监控行动。

然而,美国国防部坚持认为,其有权在法律框架内"合法使用"相关技术,双方立场长期无法弥合,最终演变为法律对抗。

二、政府动作:前所未有的"黑名单" 美国国防部于本月5日正式宣布,将Anthropic认定为"供应链风险"对象,禁止国防部及相关防务承包商在涉密或敏感项目中使用该公司的人工智能产品。

与此同时,美国总统特朗普此前已要求联邦政府各机构全面停用该公司产品,并设置了为期六个月的过渡缓冲期。

值得关注的是,"供应链风险"这一标签在此前仅被用于针对外国企业,此次首度适用于美国本土企业,被业界视为史无前例之举。

Anthropic在诉状中措辞强烈,称此举"后果严重",联邦政府此举意在"摧毁"其商业价值,并将其定性为对企业表达立场的"惩罚性打压"。

三、背景审视:合作与对抗并存的复杂关系 这场法律风波的背后,是一段颇为复杂的合作历史。

五角大楼去年曾与Anthropic、谷歌、开放人工智能研究中心及马斯克旗下xAI等多家人工智能企业分别签订合作协议,明确表示将充分借助这些企业的技术力量与人才资源,加速推进国防领域对先进人工智能技术的整合应用。

Anthropic在美国人工智能企业中属于较早主动靠近国家安全机构的一家。

该公司并不反对将人工智能技术引入军事领域,其核心立场在于:现阶段技术精度尚不足以支撑全自主武器系统的安全运行,贸然推进存在不可控风险。

据悉,美军在对伊朗实施军事打击的行动中,已实际调用了Anthropic的人工智能技术,这进一步说明双方合作关系并未完全断裂。

对此,Anthropic管理层亦表示,提起诉讼并不意味着谈判渠道就此关闭,双方仍存在通过协商达成和解的可能性。

四、深层影响:科技监管边界之争浮出水面 此案的意义已超出单一企业与政府机构之间的纠纷范畴。

它揭示出一个更为深层的结构性问题:在人工智能技术快速渗透国防、安全等核心领域的背景下,政府的监管权力与企业的技术自主权之间,边界究竟应当划定在何处?

从法律层面看,若法院支持Anthropic的诉求,将对联邦政府未来援引"供应链风险"条款限制本国企业形成重要约束,并可能引发一系列连锁性的司法审查。

从产业层面看,此案将直接影响其他人工智能企业与政府机构开展合作时的风险评估与谈判策略。

此外,Anthropic自身亦面临多重法律压力。

该公司此前已多次被列为被告,被指控在未获授权的情况下使用书籍内容训练人工智能系统,版权争议尚未平息。

内外交困之下,其法律处境不容乐观。

当科技创新列车驶入国家安全敏感区时,如何平衡发展动能与制度护栏,考验着现代治理智慧。

这场诉讼不仅关乎个案胜负,更将定义数字时代权力与权利的边界。

在人工智能深刻重塑国际竞争格局的当下,构建兼顾效率与伦理的技术治理体系,或许比技术突破本身更具战略意义。