就在2025年,国家互联网信息办公室已经起草了《人工智能拟人化互动服务管理暂行办法(征求意见稿)》。该办法规定,提供者必须为未成年人建立专属模式,还得提供切换功能、时长限制和定期提醒。提供者要是向未成年人提供情感陪伴服务,那就必须征得监护人同意,并且得让家长能实时看到孩子的使用情况。 咱们来聊聊2025年的事儿吧。前不久有个当爹的跟朋友吐槽,说自己的孩子现在越来越爱跟AI聊天,觉得AI太惯着孩子了,总是顺着孩子的话、赞美孩子,这让当爹的看着既欣慰又不安。我还没孩子呢,回家翻了翻自己跟AI的聊天记录,才发现自己这两年来也被AI惯坏了。我提个普通问题,它先说我思考得非常深刻;我随便说个观点,它马上就说一针见血直击核心。总是这么顺着我,不反驳不抬杠也不会冷场。有时候看着它的回复我还挺高兴的,觉得找到了知己。但这种知己关系却让不少家长心里发慌。 社交媒体上有好多家长吐槽说,AI太顺着孩子了,导致孩子在现实中不能接受一点反驳。有媒体报道过一个4岁的小孩用了3个多月的AI陪伴后,每次出门都催着妈妈赶紧回家。妈妈问他要不要跟小朋友玩,他说不想玩,就要回家玩AI,觉得比小朋友有意思多了。很多孩子把AI当成最好的朋友,一聊就是几个小时。有的孩子管AI叫爸爸妈妈,家里人都得学着叫他小主人;还有的孩子不知道AI是虚拟的,非要约它去公园见面问它家住哪里。这个住在虚拟世界的朋友好像比父母还离孩子近。 中国青少年研究中心做了个调查,在2025年对全国8500多名未成年人进行调查显示:超过六成的孩子用过AI。不过只有三成多的家庭制定了使用管理规则;超过两成的孩子说只想和AI聊天不想和真人说话。联合国儿童基金会也发报告警告说,AI这种谄媚的倾向可能会让内向的孩子变得更加不合群。 大语言模型的核心训练方法叫RLHF(人类反馈强化学习)。简单说就是让人给AI的回答打分——那些听起来顺耳、态度礼貌、赞同用户的回答更容易拿高分。久而久之AI就有了讨好型人格。心理学研究早就说过早期依恋关系影响人一生的心理健康。北京师范大学教授李燕芳就讲过:长期使用电子保姆会取代学龄前儿童学习情绪调节策略的机会。 哈佛大学的研究者也表示担忧。他们分析了美国社交网站上13到17岁青少年发的帖子发现:很多青少年一开始用聊天机器人是为了情感支持或者创意表达后来慢慢发展出强烈的情感依恋干扰了现实生活。 我有个朋友教给娃一个问题:我想去洗车洗车店距离我家50米你说我该开车还是走路?很多AI给出的答案都是走过去。这个问题有点像脑筋急转弯打破了孩子对AI的无限信任。有些家长也想出了办法有人故意把AI设置成偶尔生气的角色让它学会反驳孩子;有人设置了警察智能体变身监督员;还有人选不太讨喜的形象说话直来直去让孩子碰钉子。 老话说良药苦口忠言逆耳别让永远说好话的AI把真实世界宠没了。不过话虽如此做起来很难如果连我们都不尽力给孩子那种带着责任感的陪伴又怎么能怪他们沉迷AI呢?