關於rnn神經網絡的loss函數的一些思考

---  做了這麼長時間的基於深度學習的NLP,愈發可以感受到bayesian的意思,語言模型裏面一切皆是分佈,問題答案都是分佈,一個問題模擬出來的是一個答案的分佈; 我覺得我做的最好的一個聊天模型,就是先將問題表示成一個100維的高斯分佈,然後計算各個答案跟這個分佈的契合概率,當然這個模型肯定不能放出來,但是這種思想可以延伸出去,也希望有興趣的朋友跟我探討探討, [email protected
相關文章
相關標籤/搜索