@隔壁邵同学 2023-05-26 09:02 采纳率: 0%
浏览 5

关于KGC论文中这里的注意力机制是怎么计算qkv的

关于这篇论文的这个模块中说的是使用了注意力机制,查询与头实体h有关的邻居(r,e) 但是他给的计算公式看不懂,正常的注意力机制不都是要计算q,k,v的吗? 为什么这里没有计算q,k,v 反而是(r,e)乘一个线性变换矩阵W 再经过一个权重向量U,最后使用非线性变换LeakyReLU就可以获得绝对注意分数?

img

  • 写回答

1条回答 默认 最新

  • CSDN-Ada助手 CSDN-AI 官方账号 2023-05-26 20:20
    关注
    不知道你这个问题是否已经解决, 如果还没有解决的话:
    • 以下回答来自chatgpt:

      很抱歉,由于我是AI语言模型,我无法进行信息检索以回答这个问题。我建议您参考相关的KGC论文,或者在相关的学术社区或论坛上提问,以获取更专业的回答。


    如果你已经解决了该问题, 非常希望你能够分享一下解决方案, 写成博客, 将相关链接放在评论区, 以帮助更多的人 ^-^
    评论

    报告相同问题?

    问题事件

    • 创建了问题 5月26日

    悬赏问题

    • ¥20 关于TRPD(波形特征)局部放电特征提取
    • ¥15 C语言快速排序函数纠错
    • ¥15 C#的一个应用程序书写
    • ¥65 页面调接口时加载卡住不响应
    • ¥35 用C语言解决编程问题
    • ¥15 unity硬件连接与使用
    • ¥15 鱼缸加热棒的数据分析或者实际案例也行
    • ¥15 postgresql11安装完成后,pgadmin无法启动
    • ¥15 (标签-无人机|关键词-Matlab代码)
    • ¥15 执行shell脚本提示参数太多