一文詳解 Word2vec 之 Skip-Gram 模型(訓練篇)

第一部分我們瞭解skip-gram的輸入層、隱層、輸出層。在第二部分,會繼續深入講如何在skip-gram模型上進行高效的訓練。 在第一部分講解完成後,我們會發現Word2Vec模型是一個超級大的神經網絡(權重矩陣規模非常大)。 舉個栗子,我們擁有10000個單詞的詞彙表,我們如果想嵌入300維的詞向量,那麼我們的輸入-隱層權重矩陣和隱層-輸出層的權重矩陣都會有 10000 x 300 = 300
相關文章
相關標籤/搜索