如何用Python和BERT做中文文本二元分類?| 程序員硬核評測

作者 | 王樹義 來源 | 王樹芝蘭(ID:nkwangshuyi) 興奮 去年, Google 的 BERT 模型一發布出來,我就很興奮。 因爲我當時正在用 fast.ai 的 ULMfit 做自然語言分類任務(還專門寫了《如何用 Python 和深度遷移學習做文本分類?》一文分享給你)。ULMfit 和 BERT 都屬於預訓練語言模型(Pre-trained Language Modeling
相關文章
相關標籤/搜索