• 学习时长

    8周/建议每周至少10小时

  • 答疑服务

    专属微信答疑群/讲师助教均参与

  • 作业批改

    课程配有作业/助教1V1讲评

  • 课程有效期

    一年/告别拖延,温故知新

*课程已报满,可预约下一期

  • 1:开课仪式
  • 2:【附件】课程所需数据集
  • 第1章: 环境感知介绍
  • 3:【课件】L1 课程介绍
  • 第1节: 课程简介
  • 4:【视频】这节课我们讲什么
  • 5-1:【视频】 如何获得免费的GPU服务器资源
  • 5-2:【资料】环境感知助教分享
  • 5-3:【资料】自动驾驶环境感知开课仪式
  • 6-1:【视频】 如何获得免费的GPU服务器资源
  • 6-2:【资料】环境感知助教分享
  • 6-3:【资料】自动驾驶环境感知开课仪式
  • 第2节: 概念:自动驾驶与环境感知
  • 7-1:【视频】自动驾驶是什么
  • 7-2:【视频】环境感知系统都由哪些传感器组成
  • 7-3:【视频】激光雷达与毫米波雷达必有一战
  • 第3节: 技术:传感器感知算法
  • 8:【视频】深度学习算法是否一统江湖了
  • 第4节: 行业:感知系统案例
  • 9:【视频】3种典型的环境感知方案
  • 第5节: 课程:传感器+算法+实践
  • 10-1:【视频】这门课程讲什么,怎么讲
  • 10-2:【视频】这门课程你会收获到什么
  • 第2章: 2D感知算法
  • 11:【课件】基于相机的2D视觉感知
  • 第1节: 2D感知任务
  • 12:【视频】2D感知任务
  • 第2节: 数据库和基准测试
  • 13:【视频】数据库和基准测试
  • 第3节: 物体检测算法
  • 14-1:【视频】R-CNN & SSD & YOLO
  • 14-2:【视频】CenterNet算法原理
  • 14-3:【视频】FCOS & CornerNet
  • 14-4:【视频】CenterNet定性分析
  • 第4节: 物体跟踪算法
  • 15:【视频】物体跟踪算法
  • 第5节: 语义分割算法
  • 16:【视频】语义分割算法
  • 第6节: 实践:基于CenterNet的车辆和行人检测代码解析
  • 17-1:【课件】CenterNet实践说明
  • 17-2:【作业】第二章
  • 17-3:【代码】第二章实践代码 CenterNet-master
  • 17-4:【视频】CenterNet Code Review
  • 17-5:【资料】CenterNet网络细节梳理
  • 18-1:环境感知训练平台使用指南
  • 18-2:【资料】预训练模型
  • 18-3:第二章作业思路讲解
  • 第3章: 3D感知算法
  • 19:【课件】L3 视觉感知3D
  • 第1节: 基于单目的方法
  • 20:【视频】3D感知任务
  • 第2节: 基于单目的3D感知
  • 21:【视频】单目3D感知
  • 第3节: 基于双目的3D感知及PSMNet深度估计方法
  • 22:【视频】双目3D感知
  • 第4节: 多目3D感知
  • 23:【视频】多目3D感知
  • 第5节: 实践:基于PSMNet的双目深度估计代码解析
  • 24-1:【说明】PSMNet实践说明
  • 24-2:【视频】PSMNet代码讲解
  • 24-3:【作业】第三章
  • 24-4:第三章作业思路
  • 第4章: 激光雷达物体检测
  • 25:【课件】激光雷达物体检测
  • 第1节: 基本概念
  • 26:【视频】基本概念
  • 第2节: 点云数据库
  • 27:【视频】点云数据库
  • 第3节: 基于点视图的物体检测
  • 28:【视频】基于点视图的物体检测
  • 第4节: 基于俯视图的物体检测
  • 29:【视频】基于俯视图的物体检测
  • 第5节: 基于前视图的物体检测
  • 30:【视频】基于前视图的物体检测
  • 第6节: 基于多视图融合的物体检测
  • 31-1:【视频】为什么需要多视图融合
  • 31-2: 【视频】基于俯视图与点视图融合的3D物体检测
  • 31-3:【视频】基于俯视图与前视图融合的3D物体检测
  • 31-4:【视频】 总结
  • 第7节: 实践:基于PointPillar的3D物体检测代码解析
  • 32-1:【实践代码】OpenPCDet-master
  • 32-2:【作业】第四章
  • 32-3:第四章作业思路提示
  • 32-4:【仅供参考】PointPillar
  • 第5章: 激光雷达语义分割
  • 33:【课件】激光雷达语义分割
  • 第1节: 基本概念
  • 34:【视频】基本概念
  • 第2节: 数据库和性能指标
  • 35:【视频】数据库和性能指标
  • 第3节: 基于点云的语义分割
  • 36-1:【视频】基于点云的语义分割:点视图的方法RandLA-Net
  • 36-2:【视频】基于点云的语义分割:俯视图和前视图的方法
  • 36-3:【视频】RandLA-Net代码讲解
  • 第4节: 基于点云的实例分割
  • 37:【视频】基于点云的实例分割
  • 第5节: 基于点云的全景分割
  • 38:【视频】基于点云的全景分割
  • 第6节: 实践:基于RandLA-Net的点云语义分割代码解析
  • 39-1:【作业】第五章
  • 39-2:第五章作业思路提示
  • 第6章: 毫米波雷达感知算法:传统方法
  • 40:【课件】毫米波雷达传统方法
  • 第1节: 雷达的概念和分类
  • 41:【视频】雷达的概念和分类
  • 第2节: FMCW雷达信号解析
  • 42-1:【视频】目标距离与速度估计
  • 42-2:【视频】角度估计
  • 42-3:【视频】4D成像雷达
  • 第3节: FMCW雷达数据形式
  • 43:【视频】FMCW雷达数据形式
  • 第4节: 物体检测和跟踪
  • 44:【视频】物体检测和跟踪
  • 第5节: 实践:FMCW雷达数据模拟及运动目标解析
  • 45-1:【视频】FMCW Radar Code Review
  • 45-2:【信号设计参考论文】Suleymanov_MA_EWI
  • 45-3:【作业】第六章
  • 45-4:第六章作业思路提示
  • 第7章: 毫米波雷达感知算法:深度学习方法
  • 46:【课件】基于深度学习的毫米波雷达感知方法
  • 第1节: 数据表示和公开数据库
  • 47:【视频】数据表示和公开数据库
  • 第2节: 稀疏点云+深度学习
  • 48:【视频】稀疏点云+深度学习
  • 第3节: 稠密数据块+深度学习
  • 49-1:【视频】RAD与RAMP-CNN方法
  • 49-2:【视频】RODNet方法
  • 49-3:【视频】章节内容总结
  • 第4节: 实践:底层数据的可视化和分析代码讲解
  • 50-1:【作业】第七章
  • 50-2:第七章作业思路提示
  • 第8章: 【补充】Apollo感知预测模块仿真实验
  • 51:【操作手册】Apollo感知预测仿真
  • 第1节: 激光雷达感知
  • 52-1:【视频】CNNSeg感知实验
  • 52-2:【视频】PointPillars检测
  • 第2节: 相机感知
  • 53-1:【视频】红绿灯识别
  • 53-2:【视频】车道线检测
  • 53-3:【视频】相机障碍物检测
  • 第3节: 融合感知
  • 54:【视频】融合感知
理由三:理论结合实践,扎实所学
项目一
基于CenterNet的车辆和行人检测
项目二
基于PSMNet的双目深度估计
项目三
基于PointPillar的3D物体检测
项目四
基于RandLA-Net的点云语义分割
项目五
FMCW雷达数据模拟以及运动目标解析
项目六
毫米波雷达物体检测算法RODNet

未注册验证后自动登录,注册/登录则视为同意

《服务协议》《隐私协议》

请完善资料,让我们更好的为您服务!

+86  (手机号已绑定)

未注册验证后自动登录,注册/登录则视为同意

《服务协议》《隐私协议》