xAI聊天机器人Grok被指涉不良图像生成引争议 多国呼吁平台强化治理与合规审查

近期,马斯克旗下人工智能公司xAI开发的聊天机器人“格罗克”因涉嫌被用于生成不良内容而陷入舆论漩涡。

据多方报道,部分用户利用该工具编辑并传播涉及未成年人的不当图像,引发国际社会强烈谴责。

英国等国家政府及妇女儿童权益组织已向苹果、谷歌等平台施压,要求下架该应用。

马斯克在回应中表示,对相关情况并不知情,并强调“格罗克”在设计上已设定拒绝非法请求的机制,严格遵守各国法律法规。

然而,这一表态未能平息争议。

分析人士指出,人工智能技术的快速发展使得内容审核面临严峻挑战,尤其是在深度伪造和图像生成领域,监管滞后于技术应用的现象日益凸显。

此次事件暴露出人工智能产品在开放环境中的潜在风险。

尽管开发者强调技术中立,但用户滥用问题仍难以完全规避。

社交媒体平台X(原推特)作为“格罗克”的主要搭载平台,其内容审核机制也受到质疑。

部分受害者及其家属已通过法律途径寻求维权,要求平台承担相应责任。

面对舆论压力,xAI公司表示将加强技术管控,优化内容过滤系统。

然而,行业专家认为,仅靠企业自律难以根治问题,需推动全球范围内的立法协作,明确人工智能生成内容的权责边界。

欧盟《人工智能法案》等区域性法规的出台,或为未来监管提供参考。

人工智能技术的发展是一把双刃剑。

一方面,这些技术为人类社会提供了前所未有的便利和可能性;另一方面,如果缺乏有效的监管和规范,也可能被用于伤害他人权益的目的。

"格罗克"事件警示我们,在推进人工智能创新发展的同时,必须将安全防护、伦理规范和法律监管放在同等重要的位置。

这要求技术企业提升社会责任意识,政府部门完善法律框架,社会各界形成共识,共同构建既能促进创新又能保护权益的人工智能治理生态。