Task06:基於深度學習的文本分類3

什麼是BERT? 你一定聽說過BERT,也知道了它是多麼不可思議以致改變了NLP的領域格局,但BERT究竟是什麼? 以下是BERT團隊對該框架的描述:BERT全稱Bidirectional Encoder Representations from Transformers(Transformers的雙向編碼表示),對未標註的文本,通過上下文約束預訓練深層雙向表示。訓練完成後,只需要對BERT預訓練
相關文章
相關標籤/搜索