谷歌開源 BERT:最早進的 NLP 預訓練技術,支持中文和更多語言

谷歌本週開源了一種 NLP 預訓練新技術Bidirectional Encoder Representations from Transformers(BERT)。這次發佈的版本中,世界上任何人均可以在一個雲 TPU 上花費大約 30 分鐘,或使用單個 GPU 在幾個小時內訓練他們本身最早進的問答系統(或各類其餘模型)。該版本包括在 TensorFlow 之上構建的源代碼和許多預先訓練的語言表示模
相關文章
相關標籤/搜索