课程价格 :
¥899.00
剩余名额
80
-
学习时长
8周/建议每周至少6小时
-
答疑服务
专属微信答疑群/讲师助教均参与
-
作业批改
课程配有作业/助教1V1批改
-
课程有效期
一年/告别拖延,温故知新








- 第1章: 导论:四足控制的演进与可微仿真
- 第1节: 四足机器人控制的技术演进:PID → MPC → RL
- 第2节: 传统方法的能力边界:MPC 为什么在碎石路摔倒
- 第3节: 可微仿真:统一 MPC 与 RL 的技术桥梁
- 第4节: MATRiX 平台:可微、GPU 并行、平台无关
- 第2章: 机器人建模:URDF与刚体动力学
- 第1节: URDF 解析:17 个连杆、运动学树结构
- 第2节: 四元数与构型流形:n_q=19 vs n_v=18
- 第3节: 浮动基座运动方程与欠驱动的两条间接路径
- 第4节: ABA / RNEA 算法与李群积分
- 第5节: Project 1:仿真环境搭建与动力学验证
- 第3章: 模型精度与系统辨识
- 第1节: URDF 参数精度评估:206 个参数分类
- 第2节: 关节摩擦模型:库仑 + 粘性 + Stribeck
- 第3节: 折算转子惯量:KNEE 转子惯量是连杆的 100 倍
- 第4节: 经典辨识:单关节实验 → 回归 → 最小二乘
- 第5节: MATRiX 可微梯度辨识:jax.grad 直接求导
- 第4章: 强化学习与运动控制(上)
- 第1节: PPO 算法:截断比率的直觉
- 第2节: MATRiX GPU 并行训练:4096 环境 vs Isaac Gym
- 第3节: 观测空间设计:48 维向量每项物理含义
- 第4节: 奖励函数设计:速度跟踪 · 步态约束 · 能耗惩罚
- 第5节: Trot 步态约束实现与调参经验
- 第5章: 强化学习与运动控制(下)
- 第1节: Domain Randomization:参数分布上的期望优化
- 第2节: 辨识值 → DR 范围:有辨识 vs 无辨识效果对比
- 第3节: Curriculum Learning:5 阶段渐进训练
- 第4节: 地形生成:斜坡 · 碎石 · 台阶 · 随机凹凸
- 第5节: Project 2:行走策略训练与地形泛化
- 第6章: Sim-to-Real 迁移
- 第1节: Gap 系统性分解:6 个来源 × 严重度 × 解决方法
- 第2节: 摩擦前馈补偿:收益最大、成本最低的技术
- 第3节: 教师-学生蒸馏(RMA 范式):三步训练流程
- 第4节: PD 增益调优与实机安全流程
- 第5节: Project 3:策略部署与摩擦补偿
- 第7章: 感知导航与系统集成
- 第1节: 6 层分层架构:VLN → 导航 → RL → PD → 硬件
- 第2节: RoamerX 导航栈:LiDAR SLAM + 路径规划
- 第3节: 视觉语言导航(VLN):自然语言 → 运动指令
- 第4节: 高级运动技能:跳跃力矩估算与实现
- 第8章: 实机部署与案例分析
- 第1节: IROS 2025 四足挑战赛冠军案例详解
- 第2节: 赛场应急:“15 分钟重新训练”的工程实现
- 第3节: 前沿展望:四足→人形的技术迁移路径
- 第4节: 学员 Project 展示与点评
- 第5节: Project 4:完整四足自主系统(Final)
Project 1:仿真环境搭建与动力学验证
在MATRiX中加载ZSL-1,SDK遥控行走,计算质量矩阵M和重力向量g,验证零力矩时基座自由落体,可视化12个关节传感器数据。
Project 2:行走策略训练与地形泛化
设计奖励函数,PPO+MATRiX并行训练Trot步态,设置DR(基于第3章辨识值),在≥3种地形上评估泛化能力,对比有/无DR策略表现。
Project 3:策略部署与摩擦补偿
通过SDK底层接口部署策略,实现摩擦前馈补偿,对比三组实验:无补偿/摩擦补偿/补偿+DR,量化关节跟踪误差和跌倒率。
Project 4:完整四足自主系统(Final)
综合性Final Project,在MATRiX场景中整合RoamerX导航栈与RL运动策略,实现“目标点→自主导航→到达”完整闭环,含消融实验和失败分析。














