神經網絡語言模型中,詞向量爲什麼可以隨着模型的迭代而改變?

在神經網絡語言模型中,通常我們認爲詞向量是模型的輸入。 對此不太熟悉的朋友可以參考博客:自然語言處理NLP(3)——神經網絡語言模型、詞向量 神經網絡語言模型的架構是這個樣子的: 然而,在模型訓練的過程中,輸入層的詞向量可以隨着模型的迭代而改變,就像調整上圖中的權重: W , U , H W,U,H W,U,H一樣。 可能很多人有同樣的疑問:詞向量作爲模型的輸入,怎麼能改變呢? 朋友們可以先仔細思
相關文章
相關標籤/搜索