NLP_Task4 文本表示:從one-hot到word2vec

預備知識 Huffman樹 神經概率語言模型 **輸入層的輸入是單詞的Onehot 基於Negative Sampling 背景 語言模型 在統計自然語言處理中,語言模型指的是計算一個句子的概率模型。 傳統的語言模型中詞的表示是原始的、面向字符串的。兩個語義相似的詞的字符串可能完全不同,比如「番茄」和「西紅柿」。這給所有NLP任務都帶來了挑戰——字符串本身無法儲存語義信息。該挑戰突出表現在模型的平
相關文章
相關標籤/搜索