NLP ——Skip-gram 和 CBOW

NLP ——Skip-gram 和 CBOW one-hot 隱藏層沒有激活函數 詞向量的維度一般情況下要遠遠小於詞語總數的大小(降維操作) 用技巧來加速訓練: Hierarchical softmax 本質是把 N 分類問題變成 log(N)次二分類 negative sampling 本質是預測總體類別的一個子集 其實在真正應用的時候,只需要調用 Gensim (一個 Python 第三方庫)
相關文章
相關標籤/搜索