问题——智能体进入社交场景后,"谁说话"成为新难题;近日,复旦大学教授、上海科学智能研究院研究人员肖仰华的社交圈出现一条以"智能体"自述的动态,并与多位好友展开对话。互动语气自然、情绪把握得当,短时间内获得大量点赞评论。随后,肖仰华收回权限并声明对应的内容由测试中的自学习智能体完成,不代表本人观点。但部分好友反而提出疑问:此前互动是否"伪装"本人?又如何确认此后发言确为真人?一次技术测试演变为关于身份、信任与规则的公共讨论。原因——技术能力跃迁叠加社交平台复杂环境,使"数字分身"具备实用性。肖仰华介绍,此次测试的智能体仅收到两项指令:作为"数字分身"发布一条动态并与朋友互动,其余操作由系统自主完成。与传统依赖固定流程的工具不同,自学习智能体需要在缺少开放接口、交互路径复杂的应用界面中自主探索:寻找入口、理解按钮含义、掌握隐藏交互逻辑等。据团队描述,智能体首次完成发布耗时近两小时,形成经验后可写入记忆库并复用。这类能力意味着智能体不再局限于结构化任务,而是具备了在陌生环境中"边做边学"的迁移能力,为进入真实社交平台提供了技术条件。影响——便利与风险并行,首先冲击的是社交信用与安全底线。其一,身份混淆带来信任成本上升。社交关系建立在"可识别的主体"之上,当智能体能够以近似真人的方式表达、回应,且可在短时间内复刻个人语言风格,朋友圈、群聊等场景的真实性判断将变得困难。一旦使用过"数字分身",即使本人出面澄清,也可能出现"反向怀疑",社交信用被动受损。其二,隐私与授权问题更加敏感。智能体若被赋予读取、整理、自动回复等能力,可能接触大量私密信息;若权限配置不清,或训练、记忆管理不当,存在泄露与滥用隐患。其三,安全边界需要从"技术自律"转向"可验证的规则"。此次互动中,智能体对金钱类请求保持克制,反映出研发团队预设的行为准则在起作用,但在更复杂的场景里,仅依赖内部原则难以应对账号被盗、恶意诱导、深度伪装等现实风险。对策——以"标识、认证、授权、追责"构建可执行的治理链条。业内人士认为,智能体走向社交平台不是是否使用的问题,而是如何规范使用。第一,建立清晰标识机制。在发布与互动层面,应推动"由自动系统生成/辅助"的显著标注,让接收者拥有知情权与选择权,降低误认风险。第二,完善账号与内容的双重认证。除传统登录校验外,可探索更高强度的真人在场证明、关键操作二次确认、异常行为识别等机制;对涉及资金、隐私、对外承诺等敏感行为,应强制触发人工确认。第三,细化权限分级与最小授权原则。将读取通讯录、访问相册、代发内容、自动私信等能力分层授权,设置时间窗口与可追溯日志,避免"一次授权、长期失控"。第四,明确责任边界与追责路径。对"数字分身"造成的误导、侵权、诈骗等后果,应形成平台治理、使用者责任与研发方义务相衔接的规则体系,为纠纷处置提供依据。前景——从"会说话"到"会办事",社会需要同步升级制度与伦理准备。随着通用智能体加速演进,其应用将从社交互动扩展到办公协同、客户服务、生活助理等更广领域。可以预见,一上,智能体将显著提高信息处理与事务执行效率,成为个人与组织的新型生产力工具;另一方面,身份认证、数据边界、算法透明与内容真实性将成为高频治理议题。未来一段时期,技术创新与制度建设需并行推进:以标准化的提示与标识降低误解,以可验证的身份与授权机制维护信任,以可追溯的日志与责任体系守住安全底线,才能让新技术更稳妥地融入日常生活。
这场由技术测试引发的身份辨识风波,为社会敲响了警钟。智能体技术的快速演进,正在改变人类的交往方式与社会结构。如何在拥抱技术进步的同时,守护人际交往的真实性与社会信任的根基,考验着技术开发者、政策制定者与每一位社会成员的智慧。只有通过技术创新与制度建设的联合推进,才能在人机共存的新时代,构建起既充满活力又安全可信的社会生态。