pytorch利用反卷积的尺寸问题

大家好,新手入门语义分割,在利用pytorch实现Linknet的时候,在编码层最后输出的尺寸为6×10(上一层为12× 20),文中规定反卷积核的尺寸为k为3× 3,步长s = 2,利用反卷积求输出尺寸的大小为N(out) = (N(in)-1)× s +k -2p,如果按照这个核的尺寸大小进行计算的话,输出的大小就不会是我想要的12× 20,而是11× 19(padding=1)或13 ×21(padding=0),问了学长说是卷积的核的尺寸一般都为奇数最好不要修改,(论文里的也是奇数3 ×3 的),这个好像说是用keras框架写就不会有这个问题,但是现在我用的是pytorch,请问这个应该如何解决?

1个回答

H__output = (H__input−1)×stride[0]−2×padding[0]+kernel_size[0]+output_padding[0]。
这个是pytorch文档中对反卷积的计算。你可以自己计算一下,可能是因为out_padding的值设置不对

Csdn user default icon
上传中...
上传图片
插入图片
抄袭、复制答案,以达到刷声望分或其他目的的行为,在CSDN问答是严格禁止的,一经发现立刻封号。是时候展现真正的技术了!
立即提问
相关内容推荐