the_little_boy 2020-10-31 19:58 采纳率: 0%
浏览 224

SE注意力机制问题,在Squeeze操作.GlobalAveragePooling2D之后维度发生改变,导致输入下面的卷积出现问题,怎么解决呢

x = keras.layers.Conv2D(64,(3,3),padding='same')(input_tensor)

in_channels = K.int_shape(x)[-1]
###注意力机制
in_tensor = x

#Squeeze操作
x = layers.GlobalAveragePooling2D()(x)

ratio1 = 0.5

#Exicitation
out = Conv2D(filters=in_channels//ratio1, kernel_size=(1,1))(x)
out = Activation("relu")(out)
out = Conv2D(filters=in_channels, kernel_size=(1,1))(out)
out = Activation('sigmoid')(out)
out = layers.Reshape((1, in_channels))(out)

scale = tf.multiply(in_tensor, out)

  • 写回答

0条回答 默认 最新

    报告相同问题?

    悬赏问题

    • ¥15 微信会员卡接入微信支付商户号收款
    • ¥15 如何获取烟草零售终端数据
    • ¥15 数学建模招标中位数问题
    • ¥15 phython路径名过长报错 不知道什么问题
    • ¥15 深度学习中模型转换该怎么实现
    • ¥15 HLs设计手写数字识别程序编译通不过
    • ¥15 Stata外部命令安装问题求帮助!
    • ¥15 从键盘随机输入A-H中的一串字符串,用七段数码管方法进行绘制。提交代码及运行截图。
    • ¥15 TYPCE母转母,插入认方向
    • ¥15 如何用python向钉钉机器人发送可以放大的图片?