课程价格 :
¥899.00
剩余名额
0
-
学习时长
10周/建议每周至少6小时
-
答疑服务
专属微信答疑群/讲师助教均参与
-
作业批改
每章节设计作业/助教及时批改评优
-
课程有效期
一年/告别拖延,温故知新
- 1-1:【资料】相关论文
- 1-2:【文档】开课仪式
- 第1章: 机器人抓取与操作介绍
- 2:【课件】机器人抓取与操作介绍
- 第1节: 课程介绍
- 免费 3:【视频】课程大纲和介绍
- 第2节: 机器人运动规划控制方法介绍
- 免费 4:【视频】机器人运动规划控制方法介绍
- 第3节: 机器人传感器和视觉介绍
- 免费 5:【视频】机器人传感器和视觉介绍
- 第4节: 机器人学习方法介绍
- 免费 6:【视频】机器人学习方法介绍
- 第5节: 实践工具
- 免费 7:【视频】实践工具与总结
- 第6节: Project1:ACT with GalaXea机械臂A1
- 8-1:【任务说明】Project1
- 8-2:【代码】所需代码
- 8-3:【作业】Project1
- 8-4:【文档】第一章思路提示
- 第2章: 经典规划控制方法
- 9:【课件】L2-1 经典的规划方法
- 10:【课件】L2-2 控制算法介绍.pdf
- 11:【课件】L2-3 操作与抓取算法.pdf
- 第1节: 规划算法
- 12-1:【视频】规划算法
- 12-2:【视频】基于树结构的方法
- 12-3:【视频】基于图结构的方法
- 12-4:【视频】规划算法的扩展
- 第2节: 轨迹生成与优化
- 13-1:【视频】轨迹生成
- 13-2:【视频】轨迹优化,插值,样条曲线
- 第3节: 控制算法
- 14:【视频】控制算法简介
- 第4节: 抓取方法
- 15:【视频】操作与抓取的传统方法
- 第5节: 使用案例
- 16:【视频】机器人实用案例讨论
- 第6节: Project 2 :基于RRT算法的GalaXea A1机械臂路径规划
- 17-1:【任务说明】Project2
- 17-2:【文档】Project2代码下载链接
- 17-3:【作业】Project 2
- 18-1:【文档】Project2优秀作业分享
- 18-2:【文档】Project2作业讲解
- 第3章: 机器人视觉方法
- 第1节: 传感器和标定介绍
- 19:【课件】L3-1机器人视觉方法
- 20:【视频】传感器
- 第2节: 视觉图像和神经网络+3D感知和点云处理
- 21:【课件】L3-2神经网络,2D和3D图像处理
- 22:【视频】神经网络,2D和3D图像处理
- 第3节: 3D位姿估计-机器人场景
- 23-1:【课件】L3 sec3 位姿估计.pdf
- 23-2:【视频】位姿估计
- 第4章: 基于深度学习的抓取
- 第1节: 2D平面抓取
- 24-1:【课件】L4 sec1 2D Grasping.pdf
- 24-2:【视频】抓取问题介绍与2D平面抓取方法
- 第2节: 6DoF Grasping
- 25-1:【课件】L4 sec2 6DoF Grasping
- 25-2:【视频】6DoF Grasping
- 第3节: Other Applications
- 26-1:【课件】L4-3Other Applications
- 26-2:【视频】Other Application
- 第4节: Project3:PoseCNN
- 27-1:【文档说明】Project3 PoseCNN
- 27-2:【作业】Project 3
- 27-3:【文档】第三章思路提示
- 第5章: 模仿学习
- 第1节: Intro and BC
- 28-1:【课件】Intro and BC
- 28-2:【视频】Intro and BC
- 第2节: Interactive IL
- 29-1:【课件】L5-2 interactive IL
- 29-2:【视频】interactive IL
- 第3节: Inverse RL
- 30-1:【课件】L5 sec3-4-5 inverse RL and generative IL.pdf
- 30-2:【视频】Inverse RL
- 第4节: IL with Sequence Information
- 31:【视频】IL with Sequence Information
- 第5节: Generative model for IL
- 32-1:【视频】生成式模仿学习的思想
- 32-2:【视频】GAIL与VAE的方法
- 32-3:【视频】Diffusion Policy
- 第6节: Project4:基于深度学习的机器人抓取
- 33-1:【作业说明】Project4:基于深度学习的机器人抓取
- 33-2:【作业】Project4
- 33-3:【文档】第四章作业思路提示
- 第6章: 强化学习方法
- 第1节: 强化学习简介
- 34-1:【课件】L6-1强化学习简介
- 34-2:【视频】强化学习简介
- 第2节: Q learning
- 35-1:【课件】L6-2 Q learning
- 35-2:【视频】Q-learning
- 第3节: Policy Learning
- 36-1:【课件】L6-3Policy Learning
- 36-2:【视频】Policy Learning
- 第4节: Actor-Critic
- 37-1:【课件】Actor-Critic
- 37-2:【视频】 Actor-Critic
- 第5节: Offline RL and Inverse RL
- 38-1:【课件】inverse and offline RL
- 38-2:【视频】inverse and offline RL
- 第6节: Other Methods and Discussions
- 39:【视频】others
- 第7章: 具身智能:VLM与VLA模型(3次课)
- 第1节: Introduction
- 40:【视频】章节介绍
- 第2节: Transformers and Generative Model
- 41:【课件】Transformers and Generative Model
- 42:【视频】Transformer与生成式模型
- 第3节: ACT & Variants, Diffusion Policy
- 43-1:【课件】L7 sec3 ACT & Variant, Diffusion Policy.pdf
- 43-2:【视频】ACT & Variant
- 43-3:【视频】Diffusion Policy
- 第4节: VLM&LLM for Planning
- 44-1:【课件】LLM&VLM for planning
- 44-2:【视频】LLM&VLM for planning
- 第5节: VLA: RT1, RT2, Octo and OpenVLA
- 45:【课件】VLA:RT系列、Octo与OpenVLA
- 46-1:【视频】什么是VLA
- 46-2:【视频】VLA的背景与介绍
- 46-3:【视频】VLA算法之RT-1
- 46-4:【视频】VLA算法之RT-2与其它RT系列
- 47-1:【视频】VLA算法之Octo
- 47-2:【视频】VLA算法之OpenVLA
- 47-3:【视频】小结
- 第6节: VLA: RDT, Pi0 and Others
- 48-1:【课件】VLA:RDT, Pi0 and Others.pdf
- 48-2:【视频】本小节内容引入
- 48-3:【视频】RDT算法
- 48-4:【视频】Pi0算法
- 48-5:【视频】VLA总结
- 第7节: Dataset and Benchmark
- 49:【课件】L7 sec7 Dataset
- 50:【视频】Dataset
- 第8节: Others & Summary
- 51:【视频】Summary
- 第9节: 作业
- 52-1:【作业】Project 5 Diffusion Policy
- 52-2:【作业】Project 5
- 第8章: 工程经验和总结展望
- 第1节: 总结&展望
- 53:【课件】总结与展望
- 54:【视频】Summary
- 第9章: 直播答疑汇总
- 55:【直播回放】直播答疑交流01期10.26
- 56:【直播回放】直播答疑交流02期11.3
- 57:【直播回放】直播答疑交流03期11.17
- 58:【直播回放】直播答疑交流04期12.1
- 59:【直播回放】直播答疑交流05期12.15
- 60:【直播回放】直播答疑交流06期12.29
- 61:【直播回放】直播答疑交流07期1.12
- 62:【直播回放】直播答疑交流08期2.9
- 63:【直播回放】直播答疑交流09期2.23
- 64:【直播回放】直播答疑交流10期3.7
- 65:【直播回放】直播答疑交流11期4.14