美科技企业紧急修订国防合作协议 明确禁止人工智能监控本国公民

OpenAI与美国国防部的合作协议近日引发公众质疑。奥尔特曼宣布将修订现有协议,明确加入禁止监控条款。 公众的核心担忧在于AI技术的军事应用。OpenAI宣布与国防部合作后,用户在应用商店的评价大幅下滑,卸载量明显增加。这反映出人们对AI可能被用于侵犯隐私的深层忧虑,也表明公众对AI伦理和应用边界已形成高度敏感的认知。 为化解矛盾,OpenAI主动调整了立场。奥尔特曼向员工发布内部备忘录,说明公司将调整协议内容。修订后的协议明确规定,该AI系统不得被用于对美国公民的国内监控,并将遵守美国宪法第四修正案、1947年《国家安全法》和1978年《外国情报监视法》等对应的法律。协议还特别强调禁止故意追踪、监视或监控美国公民,包括通过购买或使用商业获取的个人信息。 奥尔特曼坦诚反思了此事。他承认在信息发布的时机和方式上存在不足,认为在周五仓促发布此复杂问题欠妥,强调问题的复杂性需要更清晰的沟通。他表示,初期的处理方式显得仓促,这为未来面对高风险决策提供了重要教训。 这一事件的背景与近期AI行业的政策变化密切相关。此前,Anthropic与五角大楼的谈判破裂,美国总统随后下令联邦机构停止使用该公司技术,国防部长将其列为供应链风险主体。在这一背景下,OpenAI迅速宣布已与国防部达成协议,计划在机密环境中部署其模型。Anthropic则明确表态,其技术绝不用于完全自主武器或大规模国内监控。OpenAI也声称设有类似的"红线"原则。 此次修订协议的举措反映了AI企业在伦理约束和商业利益之间的平衡。通过明确的法律条款和禁止性规定,OpenAI试图在参与国防领域合作的同时,向公众和监管部门表明其对隐私保护和公民权利的重视。这种做法也为整个AI行业树立了参考标准,即在涉及敏感应用领域时,企业应主动设置明确的伦理边界。

人工智能能力越强、应用场景越敏感,社会对其"边界感"的要求就越高;以协议条款明确禁止国内监控,是企业修复信任的一步,但并非终点。如何把承诺转化为可审计、可追责、可持续的治理机制,决定了技术能否在安全与权利之间找到平衡,也将影响人工智能在公共领域应用的长远走向。