2023年,加州把AI产生违规图像的问题抛给了马斯克麾下的企业。这事被美国司法机构当作真家伙管起来了,显示监管已经进到实质层面。当地时间14日,加州总检察长罗布·邦塔用社交媒体发声明,要求xAI公司给马斯克的聊天机器人“格罗克”立即给出答复。他们怀疑这机器能生成并传播未经同意的违规图片,这次争议点就落在了“格罗克”被指可能生成涉及未成年人的不当图片。虽然马斯克当天表示自己没见过裸照,但司法部门还是正式询问了xAI打算采取什么措施来阻止这类内容的产生和传播。这种官民直接对话的机制,反映了全球在AI治理上正从企业自己管转向法律问责。 技术层面看,“格罗克”的问题暴露出了AI在审核上的大漏洞。以前的违规内容大多是上传的,现在AI能自己编出逼真图片,源头、传播路径和责任认定都变得复杂了。斯坦福大学数字社会研究中心的艾琳娜·卡特说,现有的“发现-删除”方式已经跟不上了,得建立从算法设计到训练数据再到输出审核的全流程治理框架。 这个风波还蔓延到了别的国家。英国、加拿大、澳大利亚的儿童权益组织联合给苹果和谷歌写信,让它们把“格罗克”从应用商店撤下来。欧盟的官员也说这事正好说明对高风险AI系统分级管理很有必要。这种跨国呼应表明了全球在AI治理上形成了共识压力。 xAI其实也挺典型的,它在2023年7月成立时的目标是追求最大真理而非政治正确。但技术创新和社会责任之间怎么平衡,现在已经是所有搞AI的人必须解决的问题。中国人民大学人工智能伦理研究中心的主任提了个醒:公司的伦理委员会不能光做咨询,得有实质性否决权,这得靠企业内部结构调整。 更深层的问题是立法跟不上技术的脚步。美国现在没有联邦层面的AI专门法律,各州的做法也不一样。加州作为科技中心,它的动作很重要。2024年初加州就提出了透明度法案草案,要求标注AI生成的内容和训练数据来源。这次司法部门主动出手质询,可能会让地方立法的速度加快。 这场风暴说明技术浪潮太快了,“格罗克”事件就像是一记警钟。机器能造出人类看不出来的违规内容,跨国家、跨学科、跨行业的合作治理体系必须马上建立起来。这不仅仅是单个企业合规的问题,更关系到未成年人保护和人类技术发展的方向选择。 大家都得想办法在激发创新的同时守住伦理底线。这是各国政府、科技公司还有公民社会都要一起解答的时代课题。