《GRAPH ATTENTION NETWORKS》論文理解

0.動機 爲鄰域內的不同節點指定不同的權重,而不需要任何複雜的矩陣操作(比如求逆),也不需要預先了解圖的結構。 1. 圖注意力層 輸入爲節點特徵 h = { h ⃗ 1 , . . . , h ⃗ N } , h ⃗ i ∈ R F h=\{\vec{h}_1,...,\vec{h}_N\},\vec{h}_i\in R^F h={h 1​,...,h N​},h i​∈RF, N N N表示節點
相關文章
相關標籤/搜索