嘿,微软这次又出大招了!他们推出了一款名叫Rho-alpha的新型机器人AI模型,目标可是要让机器人和咱们的真实世界玩得更溜。 你知道吗,以前那些工业机器人大多都是按部就班地干活,环境稍微有点变化就会乱套。为了打破这个僵局,微软研究院搞了个大动作,搞出了这个“物理AI”。这次的Rho-alpha可不是光会看图说话的玩意儿,它的核心就是让机器人能直接感知、理解周围环境,还能安全有效地动手操作。 在技术上,Rho-alpha是基于微软自家的Phi视觉-语言模型家族发展来的,还加上了个触觉感知模块。这下好了,机器人不光能“看懂”环境、“听懂”人话,还能靠触觉反馈实时感知力度和材质。这就像人在用两只手做事一样灵活。 微软说以后还要给它加上力气感知呢。这个系统还会自己学习调整动作。如果人类觉得机器人做得不对,拿个3D输入设备点一下就行,它能把这些反馈都记住,以后做得更好。他们还在琢磨怎么让机器人适应不同人的习惯。 为了解决数据不够的问题,微软这次下了血本。他们用真实机器人的动作演示数据、Azure云上搞出来的高仿真合成数据,再加上一堆视觉问答的资料来训练它。这种混搭的方式真的很管用。 微软研究院的副总裁阿什利·洛伦斯觉得,以前机器人的进步确实慢了点。现在有了这个能感知、推理又能动的家伙,以后机器人在乱糟糟的地方自己也能干活了。 按照计划,Rho-alpha先通过早期访问给合作伙伴尝尝鲜。目前微软已经在双臂机器人还有类人机器人上测试过了。 这事儿说明全球科技圈都在想办法把智能化从电脑里搬到现实世界里来。像制造业、物流、医疗甚至是做家务这些地方,以后肯定会有大变化。 不过嘛,怎么让机器人在现实里更安全、更合规、还不赔钱落地,还是大家需要一起想办法的事儿。咱们就等着看后续吧!