• 学习时长

    8周/建议每周至少6小时

  • 答疑服务

    专属微信答疑群/讲师助教均参与

  • 作业批改

    课程配有作业/助教1V1批改

  • 课程有效期

    一年/告别拖延,温故知新

*课程已报满,可预约下一期

  • 1:【课件】Transformer in Vision课程介绍
  • 2:【视频】Transformer in Vision课程介绍
  • 第1章: Transformer 基础知识介绍
  • 3:【课件】第一章讲义-Transformer基础知识介绍
  • 第1节: CNN与Transformer对比
  • 4:【视频】CNN 与 Transformer 对比
  • 第2节: 注意力机制基础
  • 5:【视频】注意力机制基础
  • 第3节: Transformer基本原理
  • 6:【视频】 Transformer 基本原理
  • 第4节: 本章小结
  • 7:【视频】本章小结
  • 第5节: 本章作业
  • 8:【视频】作业视频
  • 9-1:作业说明文档
  • 9-2:【作业】第一章:Transformer 多头注意力模块实现与调试
  • 9-3:作业代码文件
  • 第2章: Transformer在图像分类中的应用
  • 10:【课件】第二章讲义-Transformer 在图像分类中的应用
  • 第1节: 图像分类数据集介绍
  • 11:【视频】图像分类数据集
  • 第2节: 基于CNN的图像分类模型
  • 12:【视频】基于CNN的图像分类
  • 第3节: 基于Transformer的图像分类模型
  • 免费 13:【视频】基于Transformer的图像分类算法
  • 免费 14:【视频】ViT算法精讲
  • 免费 15:【视频】TNT算法精讲
  • 免费 16:【视频】CvT算法精讲
  • 第4节: 本章小结
  • 17:【视频】本章小结
  • 第5节: 本章作业
  • 18:【视频】作业视频
  • 19-1:作业说明文档
  • 19-2:【作业】第二章:Transformer 多头注意力模块实现与调试
  • 第3章: Transformer在目标检测中的应用
  • 第1节: 目标检测基本知识
  • 第2节: CNN-based目标检测
  • 第3节: Transformer-based目标检测
  • 第4节: 本章小结
  • 第5节: 本章作业:基于 VisDrone 数据集的 DETR 模型训练
  • 第4章: Transformer在图像分割中的应用
  • 第1节: 图像分割任务介绍及其相关数据集
  • 第2节: 基于CNN的图像分割方法
  • 第3节: 基于Transformer的语义分割
  • 第4节: 本章小结
  • 第5节: 本章作业:基于 ADE20K 数据集的 SETR 模型训练
  • 第7章: 新模型结构 Mamba
  • 第1节: Mamba基础
  • 第2节: 基于Mamba的模型
  • 第3节: 其他Mamba相关模型
  • 第4节: 本章小结
  • 第5节: 本章作业:基于 BraTS 2023 GLI 医疗数据集的 SegMamba 模型训练

未注册验证后自动登录,注册/登录则视为同意

《服务协议》《隐私协议》

请完善资料,让我们更好的为您服务!

+86  (手机号已绑定)

未注册验证后自动登录,注册/登录则视为同意

《服务协议》《隐私协议》