Attention-Based Bidirectional Long Short-Term Memory Networks for Relation Classification解讀

1. 概述 本篇論文模型框架共有五部分: 第一:輸入層,輸入的爲每個句子 第二:嵌入層,將句子中的字轉換爲向量 第三:lstm層 第四:attention層,通過乘以權重向量,產生新的權重向量,並將每個時間步長的詞級特徵合併爲句子級特徵向量; 第五:輸出層 2. 詞嵌入 詞嵌入的基本原理爲 其中 e i e_i ei​即詞的向量,他是通過一個矩陣W與一個單位矩陣相乘得到。 bi-lstm 本文使用
相關文章
相關標籤/搜索