Word2Vector之詳解Skip-gram

​ 谷歌2013年提出的word2vector是目前最常用的詞嵌入模型之一。Word2Vector實際上是一種淺層的神經網絡模型,它有兩種網絡結構,分別爲CBOW(Continues Bag of Words)和Skip-gram,這篇文章主要是介紹Skip-gram。 ​ Skip-gram的主要目標是根據當前詞來預測上下文中各個詞的生成概率。比如說對於訓練後的網絡,給定一個輸入「soviet」
相關文章
相關標籤/搜索