ゞ 灰酱 2020-12-13 23:14 采纳率: 100%
浏览 1065
已采纳

有没有必要每层卷积后都接ReLU?

有没有必要每层卷积后都接ReLU?

刚刚入门Paddle的小白求教~

大佬们救救~

  • 写回答

3条回答 默认 最新

  • 野狗道格 2020-12-14 10:40
    关注

    一般来说是需要的,神经网络为何如此强大的原因一部分就归结于其引入了激活函数,使得函数经过隐藏层之间的层层调用,变成了线性可分,神经网络为何如此强大的原因一部分就归结于其引入了激活函数,使得函数经过隐藏层之间的层层调用,变成了线性可分。

    preview

    但是一些特殊的也可以不加,比如自然语言处理里面的word2vec的隐藏层就没有激活函数,直接softmax输出。

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(2条)

报告相同问题?