围绕信息流推荐“看什么、怎么看”的争议,社交平台长期面临用户体验与算法机制之间的张力。一方面,算法推荐提升了内容分发效率,帮助用户海量信息中快速触达兴趣点;另一上,推荐系统的“黑箱感”与不可预期性也带来困扰:有人希望集中获取体育赛事、时事资讯或专业内容,有人则希望避免影视剧透、降低情绪化内容干扰。信息获取的主导权到底握在用户手中还是平台手中,成为影响社交产品口碑与治理能力的重要议题。 在这个背景下,Threads推出“Dear Algo”功能,尝试以更直观的方式让用户参与推荐规则。根据平台披露,用户发布以“Dear Algo”开头的公开动态后,系统将在约三天时间内依据用户表达的偏好调整其信息流内容结构。该机制强调“可表达、可见、可迁移”:用户不仅可以自行提出希望多看或少看的主题,也可以通过转发他人的涉及的动态“导入偏好”,降低设置门槛,形成可复制的兴趣模板。当前该功能已在美国、新西兰、澳大利亚、英国上线,并计划向更多国家和地区推广。 从原因看,平台此举既是对用户诉求的回应,也表明了社交产品竞争进入“体验精细化”阶段的必然选择。近年来,多国监管机构、研究机构和公众舆论持续关注推荐算法可能引发的信息茧房、极化传播、沉迷使用以及未成年人保护等问题。对平台而言,单纯依赖系统自动学习用户行为,容易导致“越刷越像、越像越窄”的反馈循环;而一旦用户感到被动接受、无法纠偏,就可能降低停留时长甚至流失。通过提供明确的偏好输入通道,平台可以在保持推荐效率的同时,引入“用户显性意图”这一更可解释的信号,减少误判成本,提升信任度。 其影响将体现在三个层面。首先是用户层面,信息流从“被动接收”向“可控定制”迈出一步,有助于增强使用的掌控感与确定性,尤其对希望规避剧透、减少特定话题曝光或短期聚焦某类内容的用户更为友好。其次是平台层面,公开动态作为偏好载体,既降低了设置复杂度,也可能形成新的互动与传播形式,带动话题参与度;但同时,公开表达偏好也带来隐私与标签化风险,用户可能因顾虑被他人解读而降低真实表达意愿。再次是生态层面,可转发导入偏好意味着“兴趣模板”可能被规模化传播,既可能提升内容供给与需求匹配效率,也可能被营销主体利用,通过引导用户套用偏好影响内容触达,从而带来新的治理挑战。 因此,配套对策同样关键。其一,应提供更细颗粒度的控制选项与反馈机制,例如允许用户查看偏好生效进度、快速撤销或调整,减少“试错成本”。其二,应强化透明度与安全边界,对公开偏好可能暴露的敏感信息给予清晰提示,并提供私密模式或仅对系统可见的偏好提交渠道,以平衡表达与保护。其三,应完善反操纵机制,识别批量复制偏好、异常转发链路与诱导性模板传播,避免推荐被“格式化指令”绑架。其四,在跨地区推广过程中,应结合不同国家和地区的数据合规要求与内容治理标准,建立统一框架下的本地化执行策略,降低合规风险。 展望未来,信息流推荐正从“更聪明”转向“更可信、更可控”。“Dear Algo”体现的平台思路,是让用户在算法体系中拥有更明确的发言权,通过显性表达来校正系统学习路径。预计在产品演进上,类似功能可能与“兴趣开关”“主题白名单/黑名单”“时间段偏好”等工具组合,形成更系统的用户控制面板;在行业层面,围绕算法透明、可解释性与用户权利的竞争将更加剧,谁能在效率与责任之间取得平衡,谁就更可能赢得长期黏性与公众信任。
Threads的"Dear Algo"功能标志着社交媒体正从单纯追求算法精准转向兼顾用户控制权。如何在技术效率和用户体验间找到平衡点,将是行业持续探索的方向。