谦虚且进步 2022-12-07 17:24 采纳率: 90%
浏览 25
已结题

attention注意力机制

如果我输入的batchsize为1,tensor为一维,那么他计算注意力时是利用tensor里面的每一个数吗?但是假如我输入的是二维tensor,他计算注意力是利用二维tensor中每一行的tensor吗

  • 写回答

1条回答 默认 最新

  • ShowMeAI 2022-12-07 20:42
    关注

    望采纳

    如果你使用的是一个一维的tensor,那么在计算注意力时,注意力机制会对每个位置进行计算。如果你使用的是二维的tensor,那么注意力机制会对每行的数据进行计算。

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论

报告相同问题?

问题事件

  • 系统已结题 12月15日
  • 已采纳回答 12月7日
  • 创建了问题 12月7日