Tensorflow:基於LSTM生成藏頭詩

模型生成 首先我們要訓練好模型。這裏採用的是2層的LSTM框架,每層有128個隱藏層節點,batch_size設爲64。訓練數據來源於全唐詩。特別注意到的一點是這裏每訓練完一次就對訓練數據做shuffle。  源代碼如下: #!/usr/bin/python3 #-*- coding: UTF-8 -*- import collections   import numpy as np   impo
相關文章
相關標籤/搜索