xmu-xiaoma666/External-Attention-pytorch

如何使用fightingcv-attention提供的attention组件搭建attention-lstm类的模型并进行可解释性研究

chooron opened this issue · 0 comments

开发者你好,我想使用您们提供的attention组件,如self-attention与lstm这种简单模型拼接起来做一个时间序列预测,请问如何进行拼接,以及如何得到各变量的注意力结果?