slack、workday、linkedin 还有meta 他们那几家,为啥这么抵触外面的ai 机器人?

Slack、Workday、LinkedIn还有Meta他们那几家,为啥这么抵触外面的AI机器人?咱们说说这个事儿,最近有个叫Arcade.dev的初创公司出了份报告,数据挺有意思。你看像Slack、Workday、Meta的广告平台还有WhatsApp这些软件,对外界AI的封闭程度高得吓人;反倒是GitHub和Figma这边倒挺开放,给AI智能体用了。特别是Anthropic最近推了个新版Claude聊天机器人,能直接接管你电脑去干各种公司里的活计,这就搞得大家都得对AI的事上心了。Arcade.dev跟Anthropic联手搞了个《模型上下文协议》,就是想让AI跟软件好配合好干活,可惜也不是所有公司都乐意把这个权限打开。 就拿Slack来说吧,虽然他们口头上允许OpenAI、Anthropic这12家合作伙伴的AI接入,但真到了用的时候各种限制太多。你要是想用Claude这类外部AI去看Slack的数据,Slack肯定会拦着你申请。Salesforce作为Slack的亲妈公司也说了,不让外面的AI乱碰数据是为了大家的安全。Workday那边的问题也差不多,虽说也放行了第三方AI进来用,但门槛弄得老高。想用上人家的助手功能?那得是一头雾水。Workday也是担心公司里那些敏感的HR和财务数据被泄露。 再说Meta和WhatsApp这俩也都没支持那个MCP协议。LinkedIn跟Discord更是彻底搞了封闭。这些公司好像都怕自家的系统会失控,或者被乱七八糟的AI给发布了一堆没营养的东西。现在最关键的问题就是:用户以后是不是会逼着这些软件敞开大门让外面的AI随便用?要是企业死活不松口,用户又能咋办呢?站在咱们老百姓的角度看啊,AI机器人的潜力确实大得很能帮咱们省力气干活儿。可企业那边对数据安全和控制权看得那么重,这就把开放和封闭的博弈搞得特别复杂。以后估计得找个平衡点了:既得好好利用AI的优势干活,又得把大家的数据安全和隐私给保住。