微信也在用的Transformer加速推理工具 | 騰訊第100個對外開源項目

十三 發自 凹非寺 量子位 報道 | 公衆號 QbitAI 近年來,基於Transformer的模型,可以說是在NLP界殺出了一片天地。 雖然在提高模型模型精度上,Transformer發揮了不容小覷的作用,但與此同時,卻引入了更大的計算量。 那麼,這個計算量有多大呢? 來看下數據。 因此,實現一個能充分發揮CPU/GPU硬件計算能力的Transformer推理方法,就成了急需解決的問題。 近日,
相關文章
相關標籤/搜索