litm5e0
litm5e0
采纳率50%
2019-05-09 10:30 阅读 2.2k

tacotron(seq2seq)模型训练80k步后损失函数上升

20

用10h的中文数据集训练Google tacotron(seq-attention-seq)模型,每次训练到80k步后损失就开始猛涨(梯度爆炸?)而且loss最低值下降到了0.75左右。但是模型的alignment很明显,合成语音只是有杂声。怎么解决?

alignment:

图片说明图片说明

学习率/损失/梯度等曲线:

图片说明
图片说明

** 模型参数:**

# 模型:Tacotron 1
  outputs_per_step=5,
  embed_depth=512,
  prenet_depths=[256, 256],
  encoder_depth=256,
  postnet_depth=512,
  attention_depth=128,
  decoder_depth=1024,

# 优化器:Adam
  batch_size=32,
  adam_beta1=0.9,
  adam_beta2=0.999,
  initial_learning_rate=0.002,
  decay_learning_rate=True,
  use_cmudict=False,

# Initializer:
  truncated_normal_initializer

# 学习率延迟:
  step = init_lr * warmup_steps**0.5 * tf.minimum(step * warmup_steps**-1.5, step**-0.5)
  • 点赞
  • 写回答
  • 关注问题
  • 收藏
  • 复制链接分享

1条回答 默认 最新

  • caozhy 从今以后生命中的每一秒都属于我爱的人 2019-05-09 12:32

    学习率降低一些,用dropout/正则化防止过拟合,还有增加训练数据量或者提前结束训练。

    点赞 1 评论 复制链接分享

相关推荐