【GNN】GAT:Attention 在 GNN 中的應用

今天學習的是劍橋大學的同學 2017 年的工作《GRAPH ATTENTION NETWORKS》,目前引用數量超過 1100 次。 Attention 機制在 NLP CV 等領域被廣泛應用,其可以幫助模型對輸入數據賦予不同的權重信息。同樣的,Attention 也可以應用於網絡圖中,它可以對鄰居中不同的節點指定不同的權重,既不需要進行矩陣運算,也不需要事先了解圖的全局結構。通過這種方式,作者解
相關文章
相關標籤/搜索