-
学习时长
8周/建议每周至少6小时
-
答疑服务
专属微信答疑群/讲师助教均参与
-
作业批改
课程配有作业/助教1V1批改
-
课程有效期
一年/告别拖延,温故知新
- 第1章: Transformer 基础
- 第1节: CNN与Transformer对比
- 第2节: 注意力机制基础
- 第3节: Transformer基本原理
- 第4节: 本章总结
- 第5节: 本章作业
- 第2章: Transformer在图像分类中的应用
- 第1节: 图像分类数据集介绍
- 第2节: 基于CNN的图像分类模型
- 第3节: 基于transformer的图像分类模型
- 第4节: 本章总结
- 第5节: 本章作业
- 第3章: Transformer在目标检测中的应用
- 第1节: 目标检测基本知识
- 第2节: CNN-based目标检测
- 第3节: Transformer-based目标检测
- 第4节: 本章总结
- 第5节: 本章作业
- 第4章: Transformer在图像分割中的应用
- 第1节: 图像分割任务介绍及其相关数据集
- 第2节: 基于CNN的图像分割方法
- 第3节: 基于 Transformer 的语义分割
- 第4节: 本章总结
- 第5节: 本章作业
- 第5章: Transformer在多模态任务中的应用 (上)
- 第1节: 预备知识
- 第2节: 视觉语言预训练模型
- 第3节: 本章总结
- 第6章: Transformer在多模态任务中的应用 (下)
- 第1节: 代表性工作
- 第2节: 基于VLM的下游应用
- 第3节: 总结
- 第4节: 本章作业
- 第7章: Transformer的缺点以及新模型结构
- 第1节: 探讨 Transformer 现存缺点
- 第2节: 介绍 Transformer的挑战者 Mamba 模型结构
- 第3节: Mamba结构在其他相关任务上的简单介绍
- 第4节: 本章总结
- 第5节: 作业实践
- 第8章: CV大模型发展及展望
- 第1节: CV基础大模型概览
- 第2节: CV大模型展望
- 第3节: 本章总结
- 第4节: 作业实践