有没有必要每层卷积后都接ReLU?
刚刚入门Paddle的小白求教~
大佬们救救~
收起
当前问题酬金
¥ 0 (可追加 ¥500)
支付方式
扫码支付
支付金额 15 元
提供问题酬金的用户不参与问题酬金结算和分配
支付即为同意 《付费问题酬金结算规则》
一般来说是需要的,神经网络为何如此强大的原因一部分就归结于其引入了激活函数,使得函数经过隐藏层之间的层层调用,变成了线性可分,神经网络为何如此强大的原因一部分就归结于其引入了激活函数,使得函数经过隐藏层之间的层层调用,变成了线性可分。
但是一些特殊的也可以不加,比如自然语言处理里面的word2vec的隐藏层就没有激活函数,直接softmax输出。
报告相同问题?