ゞ 灰酱 2020-12-13 23:14 采纳率: 100%
浏览 1018
已采纳

有没有必要每层卷积后都接ReLU?

有没有必要每层卷积后都接ReLU?

刚刚入门Paddle的小白求教~

大佬们救救~

  • 写回答

3条回答 默认 最新

  • 野狗道格 2020-12-14 10:40
    关注

    一般来说是需要的,神经网络为何如此强大的原因一部分就归结于其引入了激活函数,使得函数经过隐藏层之间的层层调用,变成了线性可分,神经网络为何如此强大的原因一部分就归结于其引入了激活函数,使得函数经过隐藏层之间的层层调用,变成了线性可分。

    preview

    但是一些特殊的也可以不加,比如自然语言处理里面的word2vec的隐藏层就没有激活函数,直接softmax输出。

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
查看更多回答(2条)

报告相同问题?

悬赏问题

  • ¥15 TI的insta-spin例程
  • ¥15 完成下列问题完成下列问题
  • ¥15 C#算法问题, 不知道怎么处理这个数据的转换
  • ¥15 YoloV5 第三方库的版本对照问题
  • ¥15 请完成下列相关问题!
  • ¥15 drone 推送镜像时候 purge: true 推送完毕后没有删除对应的镜像,手动拷贝到服务器执行结果正确在样才能让指令自动执行成功删除对应镜像,如何解决?
  • ¥15 求daily translation(DT)偏差订正方法的代码
  • ¥15 js调用html页面需要隐藏某个按钮
  • ¥15 ads仿真结果在圆图上是怎么读数的
  • ¥20 Cotex M3的调试和程序执行方式是什么样的?