现在,中国的国家网信办打算把拟人化互动服务管起来,目标是给未成年人更多保护,还有管好里面的内容安全。随着科技发展越来越快,这种和人差不多的机器服务用得越来越多,人们在娱乐、学习还有情感陪伴上都离不开它。但这也带来了不少麻烦:有些服务做得太像人了,让人分不清是机器还是真人,特别是小孩子,很容易上瘾;如果数据不清理干净,或者来源不明,就可能会传播不好的偏见,或者有安全漏洞;还有些老人家容易被这种服务骗钱或者误导感情。国家网信办这次打算出台专门的规定来解决这些问题。 征求意见稿主要讲了三个重点。第一点是让服务提供商负起主要责任,通过弹窗提醒或者限制使用时间来告诉大家这是机器在聊天,别把它当成真人;第二点是加强对数据的管理,要求训练数据必须符合社会主义核心价值观和中华优秀传统文化,并且通过清洗数据、追查来源等办法来保证内容安全可靠;第三点是要特别照顾未成年人和老人,比如给孩子设置专门的模式,让家长能控制孩子的使用;给老人提供紧急联系人和社会帮助的渠道。这些措施正好解决了现在这种服务在伦理上的漏洞和监管上的空白。 新规定的出台不光是为了回应大家对技术伦理的担心,也是为了把数字治理体系做得更完善。这几年有些互动服务为了吸引用户,故意模仿人的情感和行为,但没有好好评估它们对社会心理的影响,特别是对青少年成长可能带来的坏处。还有数据被污染、算法有偏见这些技术风险也威胁着网络安全。新规定通过强制透明度、责任追查还有分类保护的机制,就是要让技术创新和风险防控平衡起来,让行业从只盯着流量转变成重视责任。 如果这个规定真的实行了,行业会发生很大变化。一方面服务提供商得改改设计逻辑,加强审核和合规投入,短期内可能成本会高一点;但长远看对行业健康发展有好处。另一方面用户权益会得到更好保障,尤其是孩子们使用安全和隐私保护会有大提升。需要注意的是新规里说了“不能代替现实交往”“不能控制用户心理”,这些是明确的红线,能抑制那些低俗或者操控性强的服务模式。 以后的治理需要各方一起努力:监管部门要盯着技术发展及时更新标准;企业要把伦理设计放进研发全过程;家里、学校还有社会也要教大家怎么理性看待人机交互。另外怎么用技术精准认出未成年人、怎么在保护隐私和防范风险之间找到平衡,也是行业还得攻破的难题。现在全球都在关心人工智能治理的事,中国这次做的制度探索也给国际规则提供了参考。 技术的温暖来自对人类幸福的关心。规范这类服务不光是限制它的使用方式,更是重塑它的社会价值。在创新和责任之间找好平衡点,让科技进步真的帮到人全面发展。只有坚持伦理走在前面、用法治保驾护航,数字时代的人机共处之路才能走得又稳又远。