Global Embedding 理解

1.Attention-based seq2seq e(t,i):求上一時刻的輸出和這一時刻編碼器的輸出的相似度 a(t,i):求這個詞在整個文本中佔多大的比重,每個時刻都存在着一個值,這個只是求一個softmax c(t):文本向量,求和,n代表序列長度,每個詞都有一個softmax值,用每一個概率值去乘以隱變量,這個隱變量就是最初的文本向量,這個概率值就是每個詞在整個文本中佔多大的比重,結果就
相關文章
相關標籤/搜索