李宏毅nlp學習筆記04:bert和它的好朋友們

1.當下追求的模型: 輸入文本,訓練使得模型可以讀懂文本,然後根據不同的任務微調模型! 2.bert大家庭—芝麻街: 3.預訓練: 把token用嵌入的向量表示。 針對英文系的前綴後綴等,有fasttext 中文的偏旁部首也能體現一定的意義: 爲了表示相同字在不同詞中的意思不同,現在的model都是輸入整個句子之後,再給出每個token 的embedding。 即上下文。 這樣的模型可以有哪些呢?
相關文章
相關標籤/搜索