BERT基礎(一):self_attention自注意力詳解

BERT中的主要模型爲Transformer,而Transformer的主要模塊就是self-attention。爲了更好理解bert,就從最基本的self-attention 開始。之後的博文則一步一步推進到bert。 參考:李宏毅2019年新增課程 week 15 transformer 課程筆記 視頻及課件地址:https://www.bilibili.com/video/av6552110
相關文章
相關標籤/搜索