英国《AI解码》节目的主持人斯蒂芬妮·海尔博士提出了疑问:让AI系统去处理化学品、爆炸物还有放射性武器这些敏感信息,哪怕指令规定AI不得使用这些信息,真的安全吗?目前国际上既没有条约也没有法规来规范这种工作,更没有办法监管AI与这些武器结合使用的行为,所有事情都在公众视线之外进行着。OpenAI也在自己的官网上发布了一则招聘信息,正在招募一位“生物和化学风险研究员”,给出的薪资高达45.5万美元,几乎是Anthropic招聘岗位薪资的两倍。Anthropic为了防止其AI模型被用于制造核武器等大规模杀伤性武器,正在招聘一位化学武器和高爆武器专家。这家美国AI公司还开发了一种过滤器,并把它集成到了系统里,目的是识别和阻止与核武器相关的滥用。最近发布的招聘信息里写明了,申请人得有至少5年“化学武器和/或爆炸物防御”的经验,还要懂“放射性散布装置”。但有专家对这种做法表示了担忧。在这场关于技术发展与安全的争论中,白宫表示美军不会受到科技公司的约束。Anthropic因为被美国国防部列为“供应链风险”而正在起诉后者。此前,这家公司反对美军把它的AI系统用来搞自动化武器攻击或者大规模监控美国人。就在今年2月,Anthropic的联合创始人阿莫代伊写文章说他觉得技术还不成熟,不能用在这些目的上。 事情变得紧迫了,是因为美国政府呼吁AI公司去参与伊朗战争和委内瑞拉的军事行动。这个问题早就有专家警告过技术可能带来的威胁,但是发展的脚步从来没有慢下来。Anthropic担心自家的Claude AI模型可能会被用来搞“灾难性滥用”,所以才设立了这个岗位。Anthropic说这个岗位和公司在其他敏感领域设的岗类似。据视觉中国报道,Claude AI模型被指参与过美军袭击伊朗的行动。