sinat_33550732
sinat_33550732
采纳率66.7%
2019-04-29 16:23

深度学习初学者,keras相关的问题,以下代码看不懂,能不能给解释下?

20

代码如下,这是一个处理图片的深度学习代码,我不明白的是,在这段代码中有很多重复的语句,这是为什么呢?我把重复的都删除以后,输出结果和之前的发生了变化,求大神给讲解一下
能不能给讲解一下,哪几行是哪个层,这个代码看的好乱啊,完全分不清楚哪层是哪的,谢谢啦

layers = [
        kr.layers.SeparableConv2D(64, 3, padding="same", depth_multiplier=16, input_shape=(32, 32, 3)),

        kr.layers.SpatialDropout2D(0.25),
        kr.layers.BatchNormalization(momentum=0.99),
        kr.layers.LeakyReLU(alpha=0.15), 
        kr.layers.MaxPooling2D(), #池化层
        kr.layers.Conv2D(128, 3, padding="same"), 
        kr.layers.SpatialDropout2D(0.25),
        kr.layers.BatchNormalization(momentum=0.99),
        kr.layers.LeakyReLU(alpha=0.15),
        kr.layers.MaxPooling2D(),
        kr.layers.Conv2D(128, 3, padding="same"),
        kr.layers.SpatialDropout2D(0.25),
        kr.layers.BatchNormalization(momentum=0.99),
        kr.layers.LeakyReLU(alpha=0.15),
        kr.layers.MaxPooling2D(),
        kr.layers.Conv2D(128, 3, padding="same"),
        kr.layers.SpatialDropout2D(0.25),
        kr.layers.BatchNormalization(momentum=0.99),
        kr.layers.LeakyReLU(alpha=0.15),
        kr.layers.MaxPooling2D(),
        kr.layers.Conv2D(256, 2, padding="same"),
        kr.layers.SpatialDropout2D(0.25),
        kr.layers.BatchNormalization(momentum=0.99),
        kr.layers.LeakyReLU(alpha=0.15),
        kr.layers.MaxPooling2D(), 
        kr.layers.Flatten(),               
        kr.layers.Dense(128),             
        kr.layers.Dropout(0.25),
        kr.layers.BatchNormalization(momentum=0.99),
        kr.layers.LeakyReLU(alpha=0.15),
        kr.layers.Dense(32),             
        kr.layers.Dropout(0.25),
        kr.layers.BatchNormalization(momentum=0.99),
        kr.layers.LeakyReLU(alpha=0.15),
        kr.layers.Dense(1, activation="sigmoid")   
    ]

  • 点赞
  • 写回答
  • 关注问题
  • 收藏
  • 复制链接分享
  • 邀请回答

3条回答

  • caozhy 回答这么多问题就耍赖把我的积分一笔勾销了 2年前

    Dense 是全连接层
    Conv2D 是二维卷积层(这是卷积网络的核心)
    MaxPooling2D 这是池化(根据区块只保留最大的值)
    Dropout BatchNormalization 是防止过拟合的
    LeakyReLU 这是激活层

    这可不是“重复代码”,而是把很多层叠加起来构成一个完整的神经网络。

    有什么不明白得可以具体问,我虽然不可能在一个回答的篇幅里给你说清楚,但是我可以给你一些相关的书。

    留下email、采纳回答可以发给你。我也是花了不少积分搜集的。

    点赞 1 评论 复制链接分享
  • skullFang 方naoke 2年前

    楼主属于纯小白级别的。建议去看看最基础的教程。keras.layer 里面封装了每一层的实现方法。这一步也是在构建神经网络计算图。例如这一层是全连接层就kr.layers.Dense。神经网络中不同层相同结构是正常的,那么有的层代码相同有啥关系。

    点赞 评论 复制链接分享
  • CALch CALch 2年前

    神经网络就是由许多层组成的,虽然代码是重复的,但是在结构中构成了前后的层次

    点赞 评论 复制链接分享

为你推荐