奥尔特曼这位CEO,承认了OpenAI和美国国防部的合作推进得太快,给人感觉不太好。AI技术虽然禁止了大规模监控和自主武器系统,但也有批评者担心这可能带来漏洞。他觉得这个决定能缓和军方与AI行业的关系,要么赢得好名声,要么背黑锅。这次新闻由IT之家报道,CEO奥尔特曼自己也坦言,公司和美国国防部的协议太着急了,给人的观感也不太好。Anthropic和五角大楼谈判破裂后,美国总统唐纳德·特朗普下令停止使用他们的技术;国防部长皮特·赫格塞斯把这家公司列为供应链风险主体。然后OpenAI迅速宣布和美国国防部达成协议,把他们的模型部署到机密环境中。Anthropic明确表示不允许其技术用于完全自主武器系统或大规模国内监控,奥尔特曼也说OpenAI有同样的“红线”。这次合作就有不少疑问:OpenAI对安全的表述是不是真的?为什么他们能搞定,Anthropic却不能?然后OpenAI高管一边在社交媒体为这个协议辩护,一边发布博文解释了他们的合作方案。博文中详细列出了三大禁用领域:大规模国内监控、自主武器系统还有“高风险自动化决策”。他们强调与其他公司不同,他们的方案更加全面和多层次。博文还提到通过云端部署和人员参与来保障安全,并且有法律保护。他们希望更多公司能考虑类似合作。Techdirt的迈克·马斯尼克批评说这个协议允许国内监控,因为私人数据收集需要符合第12333号行政命令。马斯尼克认为这个命令是美国国家安全局通过境外线路截获通信内容来掩盖国内监控的手段。卡特里娜·马利根则反驳说阻止AI用于大规模监控和自主武器不仅靠合同条款还有架构限制。通过云端API部署可以避免模型直接集成到作战硬件中。奥尔特曼认为如果这次合作成功缓和了军方与行业关系,他们会被视为天才公司;如果失败他们还是会被贴上不谨慎的标签。