蚂蚁集团布局ai 技术,把具身智能这个方向搞得风生水起

蚂蚁集团在2025年的时候,开始布局AI技术,推出了灵波科技,把具身智能这个方向搞得风生水起。这次他们开源了一个叫LingBot-Depth的高精度空间感知模型,直接把以前困扰机器人、自动驾驶这些产业的视觉瓶颈给解决了。这个模型最大的亮点就是,专门搞定那些玻璃门窗、镜面这些透明或者高反光的物体。平时大家生活中随处可见这些材质,以前那种靠结构光或者ToF原理的深度相机根本不行,遇到这些东西就全白瞎了,生成的深度图全是坑或者噪声。 为了补上这个感知“盲区”,灵波科技弄出了个叫“掩码深度建模”(MDM)的技术。它不是光靠传感器来硬干,而是把彩色摄像头(RGB)拍出来的纹理、边缘这些信息都给用上了。系统一发现数据缺失,马上就用场景的语义理解和几何推理来补全缺失的区域,最后生成的深度图又完整又清晰。为了验证这个技术,他们直接用了奥比中光Gemini 330系列的芯片级原始数据来做闭环测试。 这次开源对行业的意义挺大。一来能把三维视觉的门槛降低了,让大家少花冤枉钱重复研发;二来能把更多的场景数据和反馈收集起来,让模型在真实环境里越用越顺手。这事儿还是灵波科技在今年外滩大会亮相后搞的,算是具身智能技术基座方向的一个阶段性成果。 蚂蚁集团在AI这块儿布局很深,“阿福”、“灵光”、“百灵”这些项目都是他们搞的。这次灵波科技在感知层的突破把这个闭环的拼图又给补全了。有专家说了,三维视觉的精度直接决定了智能体能不能安全地跟物理世界打交道。LingBot-Depth刚好就打中了服务机器人进家庭、工业机器人适应柔性产线的痛点。 这次开源不光是技术进步的事儿,更是我国企业坚持自主创新、搞开放协作的一个缩影。随着越来越多基础性技术被共享出来,咱们的机器未来会越来越聪明、越来越精准地协同工作。