用户头像
icefighter
 · 广东  

看到人形机器人专业人士的观点,现在仅靠开源模型,就可以叠衣服做到100%准确了。

一般来说,这个叠衣服可以看成自动驾驶L1。

总体而言,人形机器人的进步速度远远超过了我自己的预期。

我本来对这个玩意是很悲观的。

//雷峰网:你怎么衡量具身模型的进化水平?

韩峰涛:可以参考自动驾驶。工业机器人是L0,加点工业视觉就是L0.5。但这些东西应用场景都很小,只能做那一件事。到2024年底,机器人可以叠衣服了,就是L1。自动驾驶的L1叫单功能辅助驾驶,就是可以自动刹车、车道保持。那具身的单一功能是什么?比方说叠衣服、帮我开门、拿瓶水。只做一件事就是L1。其中叠衣服是L1里最难的。如果能叠衣服,那L1级别的所有任务就都能干。现在大家都选这个场景,其实就是在秀肌肉。

我刚才讲具身智能的机会来源于大模型,它的落地也受限于大模型。因为当你只有L0的时候,机器人就只能跳舞。L1的机器人会叠衣服了,但是只有在工厂流水线这个场景才有价值,因为流水线就只要求人做一件事,相应地在商用和家用场景就不行。

模型能力继续爬坡,L2叫组合辅助驾驶,能干一长串的事。落到具身上,就从叠衣服进化到找到脏衣服、扔进洗衣机、倒洗衣粉、操作洗衣机、晾衣服、叠好放进衣柜这一长串。你只需要给一个指令,机器人就能干一长串的事,就是L2。2025年底,模型大概在L1.8左右,我觉得26年夏天就可以到L2了。

雷峰网:那么L2阶段,千寻智能理想的落地场景是什么?

韩峰涛:我们现在比较看好零售、物流这些服务场景。其实L2阶段的场景也要一个一个攻克,只是选择场景的时候,首先要选一个有商业价值的大场景。

工业场景为什么选宁德时代?因为工业里新能源电池行业的利润是很可观的。物流为什么选京东华为?也是因为这些场景有很好的商业化和利润水平。L1、L2的所有场景里,肯定要选那些利润高且愿意为机器人付费的场景。