英国媒体近日披露,美国人工智能初创企业Anthropic已就五角大楼将其列为"供应链风险"实体一事提起诉讼。
今年2月27日,美国总统特朗普下令联邦政府停止使用该公司产品,五角大楼随即宣布其构成国家安全威胁。
这起事件将人工智能技术发展中的伦理争议推向前台。
据美国媒体报道,争议焦点集中在Anthropic开发的大型语言模型Claude的军事应用问题上。
根据公司政策,该产品不得用于针对美国公民的大规模监控,也不得应用于可在无人工干预情况下自主选择和打击目标的武器系统。
这一立场与五角大楼的要求产生直接冲突。
北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴沈括在接受采访时指出,美国政府将本国企业界定为"国家安全风险",与其多年来泛化国家安全概念的做法一脉相承。
企业主张为人工智能应用设置伦理护栏,特别是禁止用于全自主致命性武器,以规避技术滥用风险。
而政府则要求企业接受所有所谓"合法用途",包括军事领域的无限制应用。
双方基于不同的价值判断和利益诉求,形成尖锐对立。
在政府施压下,五角大楼曾向Anthropic发出最后通牒,要求其要么解除限制、无条件服从,要么取消合同、列入黑名单。
面对这一选择,该公司选择坚守立场,最终被正式列为国家安全供应链风险实体,遭到联邦机构全面停用。
吴沈括分析认为,企业提起诉讼的法律依据主要集中在两个层面。
一是程序瑕疵问题。
政府依据的《美国国防生产法》相关条款原本针对外国对手,而非本国企业,适用范围存在争议。
二是宪法权利保障问题。
企业主张政府行为侵犯了宪法框架下的言论自由和正当程序权利。
特别是整个决策过程较为仓促,通过社交媒体宣布,未经正式书面程序、听证或咨询等环节,在程序正义方面存在明显缺陷。
从法律操作层面看,企业诉求具有一定合理性和依据。
然而从长远发展角度观察,形势并不乐观。
美国政府已明确表态不再与其合作,这意味着该企业在美国市场的商业前景面临严峻挑战。
在政府采购和公共部门应用领域,企业将失去重要市场份额。
这一案件的影响远超个案本身。
吴沈括指出,事件揭开了所谓"技术中立"的面纱,当技术发展到一定阶段,国家权力对技术工具的强制性安排暴露无遗。
更深层的风险在于,人工智能军事化应用中存在失控隐患。
当自主武器系统脱离人类有效监管,可能引发难以预料的后果。
从国际视角审视,美国政府的做法反映出其在人工智能领域推行"美国优先"战略的决心。
通过将企业伦理诉求政治化,政府试图确保在新兴技术领域的绝对控制权,特别是在军事应用方面不受任何限制。
这种做法不仅冲击企业自主权,也对全球人工智能治理体系带来负面示范。
业界人士担忧,如果政府权力可以无视企业伦理底线,强制要求技术服务于军事目的,将对整个行业的健康发展构成威胁。
技术创新需要相对宽松的环境和明确的伦理边界,过度的政治干预可能抑制创新活力,也会引发公众对技术滥用的担忧。
这场看似个案的法律争端,实则揭示了数字时代的新型治理难题。
当技术创新深度介入国家安全领域,如何构建既保障发展活力又守住伦理底线的制度框架,已成为各国面临的共同课题。
该事件的最终走向,或将影响未来十年全球人工智能产业的发展轨迹与治理模式。