meta在最近两场官司里全都输了,起因都是没跟大家说实话,明明知道产品有问题也不公开。

Meta在最近两场官司里全都输了,起因都是没跟大家说实话,明明知道产品有问题也不公开。两家法院的判词虽然不一样,但都指向了同一个点:公司明明知道自己的产品会带来风险,却装不知道。这就好比你请专家研究产品对人的伤害,结果反倒可能把自己搭进去,这事儿现在让不少科技大佬都犯了难。 当年Facebook还是叫那个名的时候,为了显示自己重视新东西的好处和坏处,就花钱请了好些社会科学的专家来研究平台对人的影响。按说这是好事儿,结果现在成了把柄。刚在新墨西哥州和洛杉矶出庭作证的前高管布莱恩·博兰就吐槽说,公司内部搞出来的那些负面结论,跟他们对外吹嘘的形象完全是两码事。 陪审团觉得Meta没管好平台,让未成年人掉进了坑。这也怪不得别人,早在好几年前弗朗西丝·豪根把内幕曝光之后,扎克伯格那边就开始严控研究团队了。反倒是OpenAI、Anthropic这些新来的公司大手一挥,继续投钱请人做研究,还要求把结果给老百姓看。 现在AI伤害人的事儿闹得挺大,这些公司也得琢磨琢磨:是继续拿钱资助调查好呢?还是干脆把研究掐了更划算?博兰在采访里直截了当地说:“以前有个短暂的窗口期,公司里有团队能随便搞调研;那时候一帮顶尖的研究者手里权限挺大,能看这些产品到底哪儿出了岔子;可我现在听说,这空间早就没了。” 不管是哪一场官司,核心原因都一样:公司没把自己知道的产品危害告诉大伙儿。证据全是公司内部的文件和研究报告。陪审团翻了几百万份东西看了个遍:高管的邮件、PPT演示还有员工写的调研报告。这些资料显示不少青少年在Instagram上遭遇了非自愿的性骚扰;还有一项研究说少用Facebook能减轻抑郁和焦虑,结果项目被公司给叫停了。 律师不光是靠这些内部研究打官司的,不过这些东西确实帮了大忙。被告那边辩解说有些报告过时了、被断章取义或者误导人了。博兰觉得两边的说法都摆出来了,“陪审团听了双方陈述和事实依据后才做出的决定”,“两个案子差别那么大,但判决结果却出奇地一致”。 Meta和谷歌旗下的YouTube都已经说了要上诉。负责新墨西哥州案子的心理专家顾问斯特罗曼直言不讳:“管理层以前觉得只要把内部研究拿出来秀一秀就能让公众觉得自己是好人。”她说:“我觉得他们没搞懂研究者也是人、也是当父母的;更没想到这些人不会被随便收买。” 等到研究资料被爆出来之后,原本想借公关挽回面子的计划全泡汤了。最狠的一刀砍在了2021年12月1日那天。那天前员工弗朗西丝·豪根在华盛顿国会山听证会上当着大伙儿的面痛陈内幕。非营利组织“儿童与屏幕研究所”的凯特·布洛克表示:“豪根的爆料成了全球的一个大转折点——不光对公司自己、对研究者、政策制定者和普通老百姓都一样重要。” 这场泄密逼得Meta还有整个科技圈不得不做出大调整。据报道好多做危害评估的团队都被砍掉了。有些公司干脆把第三方分析用的工具和功能也给撤了。“现在企业可能觉得做研究有法律风险,”布洛克说,“但独立的第三方调研绝对不能停。” 科技监督项目的执行主任霍沃思指出这周庭审里用的那些研究报告都不是什么新鲜玩意儿,很多资料早就让别的举报人给公开过了。庭审补充的关键是“真实的邮件、原话、截图、内部营销PPT和备忘录”,这才把背景给补全了。 现在科技圈正铆足劲儿搞人工智能,Meta、OpenAI、谷歌这些巨头都把开发产品当成了头等大事。布洛克对此很担心:“就跟当年玩社交媒体一样,公众现在还是看不到这些AI企业到底是怎么研究自己的产品的。”她接着说:“目前的AI公司大多只研究模型本身——行为、可解释性和对齐性;可在聊天机器人对孩子成长影响这种具体问题上的研究基本是个空白。” 布洛克最后呼吁:“AI企业别重蹈覆辙——我们急需建立一套透明能查的机制,让企业把平台上的信息公之于众,并且支持更多独立评估。”