AI界最危險武器GPT-2使用指南:從Finetune到部署

大數據文摘受權轉載自安迪的寫做間python 做者:Andygit 今早一塊兒牀就看到François Chollet大神(Keras做者)發推,根據 GPT-2中量模型的超長距離記憶想到了一種簡單的不基於機器學習的文本生成方式,竟然神奇地復現了GPT-2的結果,方法很簡單(只用了20分鐘寫代碼),每次用要基於文本中的關鍵詞,還有句末幾個詞,在谷歌直接搜索,而後將獲取檢索片斷基於最後幾個詞鏈接起來
相關文章
相關標籤/搜索