【論文筆記】Decomposable attention

是這個Paper的一些筆記 Parikh A P, Täckström O, Das D, et al. A decomposable attention model for natural language inference[J]. arXiv preprint arXiv:1606.01933, 2016. 這是一個比較簡單易行的方法:兩個句子之間怎麼做attention 下面這個博客有一些
相關文章
相關標籤/搜索