• 学习时长

    6周/建议每周至少6小时

  • 答疑服务

    专属微信答疑群/讲师助教均参与

  • 作业批改

    每章节设计作业/助教及时批改评优

  • 课程有效期

    一年/告别拖延,温故知新

*课程已报满,可预约下一期

  • 第1章: BEV感知诞生的背景
  • 1-1:【课件】开课仪式
  • 1-2:【课件】L1 感知模型的演变
  • 第1节: 自动驾驶功能需求的变化
  • 2:【视频】自动驾驶功能需求的变化
  • 第2节: 传统感知方法的算法流程及其瓶颈
  • 3:【视频】传统感知算法的流程及其瓶颈
  • 第3节: 视觉Transformer简介:Self‑Attention与Cross‑Attention
  • 4:【视频】视觉Transformer简介
  • 第2章: 特征空间转换(View Transformation)方法
  • 5:【课件】L2 View Transformation
  • 第1节: 为什么BEV是更合适的特征空间
  • 6:【视频】为什么BEV是更合适的特征空间
  • 第2节: LSS(2D to 3D/从底向上):基于深度分布估计的方法
  • 7:【视频】IPM与LSS特征空间转换方法
  • 第3节: Transformer(3D to 2D/从顶向下):基于注意力机制的方法
  • 8:【视频】Transformer特征空间转换方法
  • 第4节: 小结
  • 9:【视频】本章小结
  • 第3章: BEV动静态元素检测任务(含Temporal Fusion)
  • 10-1:L3 BEV Perception model.pdf
  • 10-2:【视频】L3 sec1 内容引入
  • 10-3:【资料】BEV实践环境配置.pdf
  • 第1节: LSS-based 方法:CaDDN, BEVDet, BEVDet4D, M2BEV, BEVFusion, FastBEV
  • 11:【视频】CaDNN算法
  • 12:【视频】BEVDet系列算法:BEVDet与BEVDet4D
  • 13:【视频】M^2BEV, BEVFusion, FastBEV算法
  • 14:【视频】LSS系列方法小结
  • 第2节: BEVDet的进阶之BEVPoolv2:代码讲解与实践
  • 第3节: Transformer-based方法:DETR3D, BEVFormer, PETR, PETRv2, StreamPETR
  • 第4节: BEVFormer:代码讲解与实践
  • 第5节: View Transformation各类方法的优劣势总结
  • 第4章: BEV for Occupancy
  • 第1节: 任务定义
  • 第2节: Occupancy方法:MonoScene, VoxFormer, TPVFormer, OpenOccupancy, SurroundOcc, Occ3D
  • 第5章: BEV for End-to-End
  • 第1节: FIERY:Perception + Prediction
  • 第2节: MUTR3D:Perception + Tracking
  • 第3节: UniAD:Perception + Planning
  • 第6章: BEV for Mapless
  • 第1节: HDMapNet:在BEV空间上做⽮量地图元素检测
  • 第2节: VectorMapNet:3D position embedding
  • 第3节: MapTR
  • 第7章: BEV感知模型部署
  • 第1节: 部署需求:算力约束与实时性需求
  • 第2节: 推理加速:基于Nvidia芯片的BEV推理加速
  • 第3节: 推理加速:基于征程芯片的BEV推理加速
  • 第8章: 数据闭环
  • 第1节: 数据闭环简介:2D
&
3D数据生产方式及成本介绍
  • 第2节: 3D标注
  • 第3节: 4D标注

相关推荐

机器人与自动驾驶 环境感知 进阶
机器人与自动驾驶 增强现实 定位与建图 高级
计算机视觉 机器人与自动驾驶 定位与建图 基础
机器人与自动驾驶 定位与建图 进阶

未注册验证后自动登录,注册/登录则视为同意

《服务协议》《隐私协议》

请完善资料,让我们更好的为您服务!

+86  (手机号已绑定)

未注册验证后自动登录,注册/登录则视为同意

《服务协议》《隐私协议》