STRATEGIES FOR PRE-TRAINING GRAPH NEURAL NETWORKS

pre-train+fine-tune的策略已經廣泛地應用在了CV, NLP領域,但如何有效地利用圖數據集的預訓練仍然是一個有待解決的問題。本文提出了一種在node-level和graph-level同時學習的預訓練模型,能夠很好地得到圖的局部和全局的表示。實驗證明預訓練模型在ROC-AUC上超過了非預訓練模型9.4%,並在分子性質預測和蛋白質功能預測方面達到了最好的表現。 本文被ICLR2020
相關文章
相關標籤/搜索