问题——军用智能化加速推进,安全边界如何划定成为突出矛盾。近期,美国媒体报道称,美国国防部与人工智能初创企业Anthropic在合作条款上出现明显分歧,美方随后以“国家安全供应链风险”为由,限制其进入联邦政府及军方涉及的应用场景。报道指出,争议焦点在于:军方希望涉密体系内的模型可用于“所有合法用途”,不应被企业内部政策额外限制;而企业坚持设定底线,包括不得用于针对本国民众的大规模监控、不得用于完全自主武器等。围绕“谁来界定安全”“谁来决定用途”,矛盾被公开化,反映出美国在推进军用智能化过程中遭遇制度与伦理层面的牵制。
智能技术军事化的推进速度,正在超过国际社会的治理能力;当政策导向把技术主导权置于安全伦理之上,当商业竞争压力迫使企业在原则与利益之间取舍,人类还能在多大程度上守住对致命武器的最终控制权,已成为无法回避的时代问题。历史反复表明,技术边界从来不只是工程议题,更关乎文明选择。如何在效率与克制之间划出那条线,考验的不仅是政策制定者的判断,也考验整个国际社会的道德与制度约束力。