谦虚且进步 2022-12-07 09:24 采纳率: 90%
浏览 25
已结题

attention注意力机制

如果我输入的batchsize为1,tensor为一维,那么他计算注意力时是利用tensor里面的每一个数吗?但是假如我输入的是二维tensor,他计算注意力是利用二维tensor中每一行的tensor吗

  • 写回答

1条回答 默认 最新

  • ShowMeAI 2022-12-07 12:42
    关注

    望采纳

    如果你使用的是一个一维的tensor,那么在计算注意力时,注意力机制会对每个位置进行计算。如果你使用的是二维的tensor,那么注意力机制会对每行的数据进行计算。

    本回答被题主选为最佳回答 , 对您是否有帮助呢?
    评论
编辑
预览

报告相同问题?

问题事件

  • 系统已结题 12月14日
  • 已采纳回答 12月7日
  • 创建了问题 12月7日

悬赏问题

  • ¥15 DBIF_REPO_SQL_ERROR
  • ¥15 根据历年月数据,用Stata预测未来六个月汇率
  • ¥15 DevEco studio开发工具 真机联调找不到手机设备
  • ¥15 请教前后端分离的问题
  • ¥100 冷钱包突然失效,急寻解决方案
  • ¥15 下载honeyd时报错 configure: error: you need to instal a more recent version of libdnet
  • ¥15 距离软磁铁一定距离的磁感应强度大小怎么求
  • ¥15 霍尔传感器hmc5883l的xyz轴输出和该点的磁感应强度大小的关系是什么
  • ¥15 vscode开发micropython,import模块出现异常
  • ¥20 Excel数据自动录入表单并提交