收起
在deep learning model处理位置信息时有如下2种想法:
可以参考如下资料中的形象解释:
Transformer 的绝对位置编码和相对位置编码 Transformer 恰好属于对位置不敏感的结构,所以我们需要额外给 Transformer 带上每一个字所在的位置。本文介绍了绝对位置编码和相对位置编码两种方式。 https://www.qin.news/jue-dui-wei-zhi-bian-ma-he-xiang-dui-wei-zhi-bian-ma/
报告相同问题?