• 学习时长

    8周/建议每周至少6小时

  • 答疑服务

    专属微信答疑群/讲师助教均参与

  • 作业批改

    课程配有作业/助教1V1批改

  • 课程有效期

    一年/告别拖延,温故知新

  • 第1章: Transformer 基础
  • 第1节: CNN与Transformer对比
  • 第2节: 注意力机制基础
  • 第3节: Transformer基本原理
  • 第4节: 本章总结
  • 第5节: 本章作业
  • 第7章: Transformer的缺点以及新模型结构
  • 第1节: 探讨 Transformer 现存缺点
  • 第2节: 介绍 Transformer的挑战者 Mamba 模型结构
  • 第3节: Mamba结构在其他相关任务上的简单介绍
  • 第4节: 本章总结
  • 第5节: 作业实践

未注册验证后自动登录,注册/登录则视为同意

《服务协议》《隐私协议》

请完善资料,让我们更好的为您服务!

+86  (手机号已绑定)

未注册验证后自动登录,注册/登录则视为同意

《服务协议》《隐私协议》