-
Notifications
You must be signed in to change notification settings - Fork 14
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
关于注意力机制代码的疑问 #2
Comments
您好, 我们对代码进行了测试,该代码是没有问题的,没有遇到bug。您如果对代码进行了修改,您有可能得到不同的实验结果。 关于超参数,您可以参考我们的论文 Appendix A 中的相关内容。值得指出的是,该参数为我们的环境下的较为合适的一套参数。如果您使用不同的环境训练模型,最优超参数可能会与文章中提到的不同。 关于模型结果的复现。您可以通过 github 主页的链接,从 Google Drive 下载我们提前训练好的模型。该模型可以在测试集上复现论文中提到的分数。 希望以上可以帮到您。 谢谢 |
好的,感谢,我再试试 |
re_agcn_model.py
中,ReAgcn
类的get_attention()
方法,从源代码上看,这是计算paper中的公式(3)。所以是否可以这么理解:paper中提到的attention,其实就是通过公式(3)选择合适的 ?
如果是这么理解,那么这里注意力得分的计算方法与传统self-attention或Multi_head attention差别较大,之间是否有什么联系?
The text was updated successfully, but these errors were encountered: