微軟發佈史上最大NLG模型:基於Transformer架構,170億參數加持

2020-02-11 18:50 導語:史上最大! 近年來,BERT、GPT-2等深度學習語言模型,極大地提高了問答、摘要、人機對話等下游自然語言處理任務的性能。 而今天,微軟研究院重磅發佈了有史以來最大的基於Transformer架構的語言生成模型 Turing-NLG。此模型的參數高達170億,是英偉達的Megatron(也就是現在第二大Transformer模型)的兩倍,是OpenAI的GP
相關文章
相關標籤/搜索