深度学习初学者,keras相关的问题,以下代码看不懂,能不能给解释下?

代码如下,这是一个处理图片的深度学习代码,我不明白的是,在这段代码中有很多重复的语句,这是为什么呢?我把重复的都删除以后,输出结果和之前的发生了变化,求大神给讲解一下
能不能给讲解一下,哪几行是哪个层,这个代码看的好乱啊,完全分不清楚哪层是哪的,谢谢啦

layers = [
        kr.layers.SeparableConv2D(64, 3, padding="same", depth_multiplier=16, input_shape=(32, 32, 3)),

        kr.layers.SpatialDropout2D(0.25),
        kr.layers.BatchNormalization(momentum=0.99),
        kr.layers.LeakyReLU(alpha=0.15), 
        kr.layers.MaxPooling2D(), #池化层
        kr.layers.Conv2D(128, 3, padding="same"), 
        kr.layers.SpatialDropout2D(0.25),
        kr.layers.BatchNormalization(momentum=0.99),
        kr.layers.LeakyReLU(alpha=0.15),
        kr.layers.MaxPooling2D(),
        kr.layers.Conv2D(128, 3, padding="same"),
        kr.layers.SpatialDropout2D(0.25),
        kr.layers.BatchNormalization(momentum=0.99),
        kr.layers.LeakyReLU(alpha=0.15),
        kr.layers.MaxPooling2D(),
        kr.layers.Conv2D(128, 3, padding="same"),
        kr.layers.SpatialDropout2D(0.25),
        kr.layers.BatchNormalization(momentum=0.99),
        kr.layers.LeakyReLU(alpha=0.15),
        kr.layers.MaxPooling2D(),
        kr.layers.Conv2D(256, 2, padding="same"),
        kr.layers.SpatialDropout2D(0.25),
        kr.layers.BatchNormalization(momentum=0.99),
        kr.layers.LeakyReLU(alpha=0.15),
        kr.layers.MaxPooling2D(), 
        kr.layers.Flatten(),               
        kr.layers.Dense(128),             
        kr.layers.Dropout(0.25),
        kr.layers.BatchNormalization(momentum=0.99),
        kr.layers.LeakyReLU(alpha=0.15),
        kr.layers.Dense(32),             
        kr.layers.Dropout(0.25),
        kr.layers.BatchNormalization(momentum=0.99),
        kr.layers.LeakyReLU(alpha=0.15),
        kr.layers.Dense(1, activation="sigmoid")   
    ]

sinat_33550732
sinat_33550732 回复操作员马善福(贵阳专业挖机): 1105474819@qq.com
9 个月之前 回复
caozhy
贵阳老马马善福专业维修游泳池堵漏防水工程 留下你的email
9 个月之前 回复

3个回答

Dense 是全连接层
Conv2D 是二维卷积层(这是卷积网络的核心)
MaxPooling2D 这是池化(根据区块只保留最大的值)
Dropout BatchNormalization 是防止过拟合的
LeakyReLU 这是激活层

这可不是“重复代码”,而是把很多层叠加起来构成一个完整的神经网络。

有什么不明白得可以具体问,我虽然不可能在一个回答的篇幅里给你说清楚,但是我可以给你一些相关的书。

留下email、采纳回答可以发给你。我也是花了不少积分搜集的。

神经网络就是由许多层组成的,虽然代码是重复的,但是在结构中构成了前后的层次

楼主属于纯小白级别的。建议去看看最基础的教程。keras.layer 里面封装了每一层的实现方法。这一步也是在构建神经网络计算图。例如这一层是全连接层就kr.layers.Dense。神经网络中不同层相同结构是正常的,那么有的层代码相同有啥关系。

skullFang
方naoke 回复sinat_33550732: Keras你可以理解为是tensorflow更上一层的封装。你不需要再手写前向传播和反向传播。keras已经帮你弄好了。现在tf最新文档已经与Keras合体了。建议关注学习一下。
9 个月之前 回复
sinat_33550732
sinat_33550732 对对对,我纯小白,一直在看机器学习,深度学习只看了一点tensorflow的,这个代码是我练习处理图片数据的时候看到的别人写的,我看整段代码都特别简洁就复制过来打算研究一下,结果碰到了keras
9 个月之前 回复
Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
立即提问