Googlo666 2023-02-01 19:33 采纳率: 66.7%
浏览 21
已结题

关于#transformer#的问题:transformer在SISR的问题,训练时图像小,test时可以直接对高分辨率图像处理

SSIR超分图像重建问题。transformer在vision的应用问题

我发现SwinIR和它的一些改进模型,train和test时的输入图像大小不一样,train的imagesize比较小,这样训练出来的attention里的转移矩阵为什么适用大图像。
比如Swin中训练的image_size=.,48,48,在valid和test时,model却可以对image_size = .,1024,720数据直接处理,有点不理解原因。

  • 写回答

1条回答 默认 最新

  • m0_54204465 2023-02-01 19:39
    关注

    Transformer模型在SISR问题中的特殊之处在于它使用了self-attention机制来捕捉图像中的长距离依赖关系,因此它可以处理任意大小的图像。在训练时使用的小图像可以避免内存问题,但是训练出来的self-attention机制可以在高分辨率图像上得到更好的表现。因此,使用小图像训练可以保证模型的通用性和稳定性,可以在不同大小的图像上得到很好的结果。

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论

报告相同问题?

问题事件

  • 系统已结题 2月19日
  • 已采纳回答 2月11日
  • 创建了问题 2月1日

悬赏问题

  • ¥15 linux驱动,linux应用,多线程
  • ¥20 我要一个分身加定位两个功能的安卓app
  • ¥15 基于FOC驱动器,如何实现卡丁车下坡无阻力的遛坡的效果
  • ¥15 IAR程序莫名变量多重定义
  • ¥15 (标签-UDP|关键词-client)
  • ¥15 关于库卡officelite无法与虚拟机通讯的问题
  • ¥15 目标检测项目无法读取视频
  • ¥15 GEO datasets中基因芯片数据仅仅提供了normalized signal如何进行差异分析
  • ¥100 求采集电商背景音乐的方法
  • ¥15 数学建模竞赛求指导帮助