各位大神好,我是小白,看了一些关于过拟合正则化的文章,文章都说正则化项是加在目标函数/损失函数上的,但我看keras的文档上,正则化都是加在层上的,我不是很理解,难到不能加在损失函数上吗。其次正则化的参数 lamda值要是过拟合的话大致通常设置多少比较好,或者你们都拿多少开始试的。谢谢各位大神。
关注
码龄 粉丝数 原力等级 --
- 被采纳
- 被点赞
- 采纳率

已采纳
keras cnn 过拟合 正则化怎么加,最好能有代码示例
收起
- 写回答
- 好问题 0 提建议
- 关注问题
微信扫一扫
点击复制链接分享
- 邀请回答
- 编辑 收藏 删除 结题
- 收藏 举报
1条回答 默认 最新
- 关注
码龄 粉丝数 原力等级 --
- 被采纳
- 被点赞
- 采纳率
threenewbee 2018-12-15 11:06关注正则化也可以加在层上的。
是否有效,这个没法说,不同的模型差别很大,还有你数据如果不足,模型太复杂等,都可能过拟合。
除了正则化,还可以试试看dropout本回答被题主选为最佳回答 , 对您是否有帮助呢? 本回答被专家选为最佳回答 , 对您是否有帮助呢? 本回答被题主和专家选为最佳回答 , 对您是否有帮助呢?解决 无用评论 打赏举报微信扫一扫
点击复制链接分享
评论按下Enter换行,Ctrl+Enter发表内容
报告相同问题?
提交
- 2019-01-02 15:55回答 1 已采纳 直接写在卷积层的参数里 https://keras.io/zh/regularizers/
- 2022-03-23 18:17回答 6 已采纳 我当时是手动一层一层的对应输出,用pytorch复现了一遍,不过结果会有误差,自己随机一个输入,每次输出大小,用pytorch再搞一边,其他方法都不靠谱,还有就是论文中的话github可能有人复现了,
- 2023-02-01 14:57回答 2 已采纳 这个错误是由于Keras在TensorFlow 2.0之后的版本中不再支持内部API。这个问题可以通过使用默认的TensorFlow后端来解决。可以在代码中添加以下行来设置后端: import ten
- 2020-09-16 20:16在深度学习领域,正则化是一种非常重要的技术,用于防止模型过拟合,提高模型的泛化能力。本文将详细探讨如何在TensorFlow Keras框架中为卷积神经网络(CNN)添加L2正则化。 L2正则化是通过在损失函数中添加权重...
- 2021-08-04 11:56回答 2 已采纳 opencv自带有dnn模块可以直接条用tensorflow的模型,但是不如tf那样方便,有些网络层和操作如果不支持的话就需要转换,举例来说如果sigmoi不支持就得换relu(当然opencv是支持
- 2022-10-27 20:21回答 2 已采纳 没有看过源码,但是我的使用经验告诉我这两个是一样的,很有可能是同一个代码封装了两个入口。
- 2023-03-06 22:21回答 3 已采纳 可能是因为模型训练不充分或者数据集不够多造成的,可以尝试增加训练次数或者增加数据集来提高模型的准确性。同时,也可以检查一下模型的结构和参数是否设置合理。
- 2020-12-21 15:17weixin_39793434的博客 阅读完本文,你就学会了在Keras框架中,如何将深度学习神经网络Dropout正则化添加到深度学习神经网络模型里。Dropout正则化是最简单的神经网络正则化方法。其原理非常简单粗暴:任意丢弃神经网络层中的输入,该层...
- 2023-02-03 17:05回答 2 已采纳 你去D:\anaconda\lib\site-packages\tensorflow_core\python\keras\api_v2\keras\preprocessing\image 这个路径下找
- 2023-03-05 18:39回答 2 已采纳 尝试一下调整参数吧,或者加层数试试
- 2023-02-06 20:56回答 2 已采纳 方案来自 梦想橡皮擦 狂飙组基于 GPT 编写的 “程秘” from PIL import Image import numpy as np img = Image.open("dog_or_cat
- 2022-03-01 15:55日拱一两卒的博客 详细整合讲解L1,L2正则化原理的代码用法
- 2019-11-05 10:08iceFreedom的博客 过拟合现象 在下图中,虽然绿线完美的匹配训练数据,但太过依赖,并且与黑线相比,对于新的测试数据上会具有更高的错误率。...正则化是机器学习中通过显示控制模型复杂度来避免模型过拟合、确保泛化能力的一种有效...
- 2020-12-21 15:17weixin_39707612的博客 model = keras.models.Sequential([#卷积层1keras.layers.Conv2D(32,kernel_size=5,strides=1,padding="same",data_format="channels_last",activation=tf.nn.relu,kernel_regularizer=keras.regul...
- 2020-12-19 14:23weixin_39524439的博客 阅读完本文,你就学会了在Keras框架中,如何将深度学习神经网络Dropout正则化添加到深度学习神经网络模型里。Dropout正则化是最简单的神经网络正则化方法。其原理非常简单粗暴:任意丢弃神经网络层中的输入,该层...
- 没有解决我的问题, 去提问