Updated by Xingyu Chen,Nov 2025

当下的人工智能已经在数据挖掘、模式识别、计算机视觉、自然语言处理等诸多领域超过人类。**然而在物理能力方面,AI的发展却相对滞后。**以人形机器人为例,其运动能力远远落后于正常生物所具备的运动能力。人类能够在复杂的环境中利用各种巧妙的运动技能做出流畅协调的动作。这种运动能力与人工智能代理表现出的狭隘和僵化行为形成了鲜明对比。由此,开发能够模仿人类行为的计算模型,赋予机器人理解物理世界并与环境进行交互的能力,可以极大地扩展AI后续的落地场景

image.png

为实现这一目标,人形早期以波士顿动力为代表的团队致力于将人体运动背后的策略清晰阐述并转化为可执行代码,但这样的控制器和优化器专业要求高、开发难度大且耗时漫长。同时推导优化目标函数来调整参数还只适用于特定类型的技能,很难推广和扩展到新的行为和场景中,这样的技术路线上限低,不具备泛化能力,无法支撑本机量产以及规模化的落地。意识到这一点以后,波士顿动力也于24年彻底转型,放弃了液压+MPC控制的路线,转型到电驱+RL控制的路线。

image.png

为了提高开发效率,实现整机运控的自动化,以宇树科技为代表的团队采用强化学习和模仿学习作为一种高效的策略探索手段,可以通过仿真器采集大量模拟数据,并行训练出具备复杂运动技能的鲁棒控制器。但是,这套技术路线同样需要针对特定任务进行繁琐的奖励函数设计及后期手工调整,且每次只能产生微小的改进,需要对工程师手动反复修改(对调参者进行强化学习),难以媲美生物体所展现出的丰富多样的运动技能。

image.png

人形机器人长期处于数据缺乏状态,即数据缺乏动力学的监督信号,往往只能停留在运动学级。**因此人形运控只能利用仿真器采集动力学数据进行策略探索,这种“自下而上”的方式,与近年来利用VLA的推理能力和泛化能力指导决策规划的“自上而下”的方式背道而驰。**由此以Nvidia为代表性的头部厂商拉开了以空间计算和物理AI为核心方向的模型开发和技术探索:

以上就是人形机器人发展的三个阶段,本篇主要聚焦人形机器人的运动控制技术。现代人形全身运控起源于角色动画(Deepmimic),是数字人和机器人结合的产物,人形机器人的运控全流程是“数采-训练-验证-部署”,一般会把人形具身运控分成两个模块,一套关注运动学,是角色动画的前端;一套关注动力学,是角色动画的后端。

image.png