Distributed Representations of Words and Phrases and their Compositionality

最近提出的連續skip-gram模型是學習高質量分佈式詞向量表示的有效方法,它捕獲了大量精確地語法和語義信息。本文的擴展是提高向量的質量和訓練的速度。通過下采樣一些頻繁的詞獲得速度很大的提升,並且學得更規則的詞表示,並且提出了一個可以替換層次級softmax的方法,叫負採樣。   1 Introduction 在NLP中,向量空間中的詞的分佈式表示有助於獲得更好的性能。最早使用詞的表示可以追溯到1
相關文章
相關標籤/搜索