【Papernotes】High-risk Learning

論文地址: http://aclweb.org/anthology/D17-1030 項目地址: https://github.com/minimalparts/nonce2vec 要點 一般訓練 word embeddings, 都是用一個大型語料 (比如維基百科), 訓練一次, 得到一個模型 (稱 word embeddings 爲模型可能不太準確, 姑且這樣叫吧). 本文是我苦苦尋找的, 對
相關文章
相關標籤/搜索