爲什麼BERT在商業環境碰壁?

本文首發於微信訂閱號:NewBeeNLP,歡迎關注獲取更多幹貨資源。 大型基於Transformer的神經網絡,例如BERT,GPT和XLNET,最近在許多NLP任務中取得了最新的成果。 這些模型的成功基於通用任務(例如語言建模)和特定下游任務之間的遷移學習, 這些模型在有標記數據的靜態評估集上表現出色。 但是,在動態商業環境中部署這些模型通常會產生較差的結果。 這是因爲商業環境通常是動態的,並且
相關文章
相關標籤/搜索