Swin Transformer官方代码中,关于WindowAttention模块中的self.proj有什么作用呢?
# 参数设定:proj_drop (float, optional): Dropout ratio of output. Default: 0.0
self.proj = nn.Linear(dim, dim)
x = (attn @ v).transpose(1, 2).reshape(B_, N, C)
x = self.proj(x) #这一步的作用是什么呢?