論文筆記之Graph Attention Networks

論文筆記之Graph Attention Networks 一、本文貢獻 提出了圖注意力網絡,利用屏蔽的自注意層來解決基於圖卷積的一些缺點。 注意力機制允許處理不同大小的輸入,通過關注輸入中最相關的部分來進行決策。 該機制可以隱式地給鄰域中不同節點指定不同的權重,而不需要高代價的矩陣運算或預先知道圖的結構。 二、模型分析 GAT層輸入: 具體過程 爲了將輸入特徵轉換爲更高層次的特徵,因此對每個節點
相關文章
相關標籤/搜索