-
学习时长
8周/建议每周至少6小时
-
答疑服务
专属微信答疑群/讲师助教均参与
-
作业批改
课程配有作业/助教1V1批改
-
课程有效期
一年/告别拖延,温故知新
- 第1章: Transformer基础知识介绍
- 第1节: CNN与Transformer对比
- 第2节: 注意力机制基础
- 第3节: Transformer基本原理
- 第4节: 本章小结
- 第5节: 本章作业:Transformer 多头注意力模块实现与调试
- 第2章: Transformer在图像分类中的应用
- 第1节: 图像分类数据集介绍
- 第2节: 基于CNN的图像分类模型
- 第3节: 基于Transformer的图像分类模型
- 第4节: 本章小结
- 第5节: 本章作业:基于TNT模型的图像分类任务
- 第3章: Transformer在目标检测中的应用
- 第1节: 目标检测基本知识
- 第2节: CNN-based目标检测
- 第3节: Transformer-based目标检测
- 第4节: 本章小结
- 第5节: 本章作业:基于 VisDrone 数据集的 DETR 模型训练
- 第4章: Transformer在图像分割中的应用
- 第1节: 图像分割任务介绍及其相关数据集
- 第2节: 基于CNN的图像分割方法
- 第3节: 基于Transformer的语义分割
- 第4节: 本章小结
- 第5节: 本章作业:基于 ADE20K 数据集的 SETR 模型训练
- 第5章: Transformer在多模态任务中的应用 (上)
- 第1节: 预备知识
- 第2节: 多模态大模型代表性工作(上)
- 第3节: 本章小结
- 第6章: Transformer在多模态任务中的应用 (下)
- 第1节: 多模态大模型代表性工作(下)
- 第2节: 基于VLM的下游应用
- 第3节: 本章小结
- 第4节: 本章作业:使用 llava_instruct_150k.json 数据微调 LLaVA
- 第7章: 新模型结构Mamba
- 第1节: Mamba基础
- 第2节: 基于Mamba的模型
- 第3节: 其他Mamba相关模型
- 第4节: 本章小结
- 第5节: 本章作业:基于 BraTS 2023 GLI 医疗数据集的 SegMamba 模型训练
- 第8章: 基于Transformer的视觉基础模型及其趋势
- 第1节: 基于Transformer的视觉基础模型
- 第2节: 视觉基础模型的趋势
- 第3节: 本章小结
- 第4节: 本章作业:基于 COD10K 伪装物体检测数据集的 SAM 模型微调