最小熵原理系列:詞向量的維度應該怎麼選擇?

©PaperWeekly 原創 · 作者|蘇劍林 單位|追一科技 研究方向|NLP、神經網絡 隨着 NLP 的發展,像 Word2Vec、Glove 這樣的詞向量模型,正逐漸地被基於 Transformer 的 BERT 等模型代替,不過經典始終是經典,詞向量模型依然在不少場景發光發熱,並且仍有不少值得我們去研究的地方。本文我們來關心一個詞向量模型可能有的疑惑:詞向量的維度大概多少纔夠? 先說結論
相關文章
相關標籤/搜索