• 学习时长

    8周/建议每周至少8小时

  • 答疑服务

    专属微信答疑群/讲师助教均参与

  • 作业批改

    每章节设计作业/助教及时批改评优

  • 任务1: 助教分组结果-语音合成一期.xlsx
  • 第2章: 语音合成中的前端文本分析
  • 第1节: 前端文本分析
  • 任务9-1: 【课件】L2 文本分析.pdf
  • 任务9-2: 【视频】语音合成L2-前端文本分析 60:50
  • 任务9-3: 【视频】文本分析(下) 56:48
  • 第2节: 实践:作业
  • 任务10-1: 【作业】第二章
  • 任务10-2: 第二章作业讲评-从坚助教.pdf
  • 第3章: 传统语音合成算法
  • 任务11: 【课件】Traditioal TTS.pdf
  • 第1节: 传统语音合成概述
  • 任务12: 【视频】传统TTS概述 10:21
  • 第2节: 基于HMM的统计参数语音合成
  • 任务13-1: 【视频】基于HMM的统计参数语音合成 43:23
  • 任务13-2: 【视频】基于HMM的统计参数语音合成 part II 49:58
  • 第3节: 基于NN的统计参数语音合成
  • 任务14: 【视频】基于NN的统计参数语音合成 12:15
  • 第4节: 传统声码器技术与单元拼接语音合成
  • 任务15: 【视频】传统声码器与单元拼接语音合成 19:54
  • 第5节: 作业实践
  • 任务16-1: 【视频】作业 05:34
  • 任务16-2: 【作业】第三章
  • 任务16-3: 第三章作业思路提示-刘瑞助教.pdf
  • 第4章: 基于序列到序列的语音合成
  • 任务17: 【课件】L4 seq2seq.pdf
  • 第1节: Sequence-to-Sequence 和 Attention机制
  • 任务18: 【视频】序列到序列的模型及注意力机制 38:32
  • 第2节: 代码讲解:基于注意力机制的序列到序列模型
  • 任务19: 基于Attention的序列到序列模型 20:51
  • 第3节: 基于Tacotron的端到端语音合成及变体
  • 任务20: 【视频】Tacotron及变体 39:58
  • 第4节: 作业:实现基于Tacotron的声学模型
  • 任务21-1: 【作业】第四章
  • 任务21-2: 第四章作业思路提示-谢启聪助教.pdf
  • 第5章: 端到端语音合成进阶
  • 任务22: 【课件】L5 advanced-seq2seq.pdf
  • 第1节: 端到端语音合成变体(二)
  • 任务23: 概述 08:06
  • 第2节: attention机制探索
  • 任务24: 序列到序列声学模型变体 94:23
  • 第3节: FastSpeech和DurIAN
  • 任务25: Attention机制探索 48:54
  • 第4节: 实践:实现基于LSA的attention机制的语音合成
  • 任务26: FastSpeech和DURIAN 22:41
  • 任务27: 【作业】第五章
  • 第6章: 神经网络声码器
  • 任务28: 【课件】L6 神经声码器.pdf
  • 第1节: 概述
  • 任务29: 【视频】概述 04:12
  • 第2节: 基于Flow的神经声码器
  • 任务30: 【视频】基于Flow的神经声码器 46:12
  • 第3节: 基于GAN的神经声码器:Parallel WaveGAN, MelGAN
  • 任务31: 【视频】基于GAN的神经声码器 16:25
  • 第4节: 实践作业
  • 任务32: 【作业】第六章
  • 第8章: 总结展望
  • 第1节: 课程回顾
  • 第2节: 语音合成的挑战
  • 第3节: 语音合成前沿展望

相关推荐

智能语音 智能语音 基础