JavaShuo
欄目
標籤
李宏毅-DeepLearning-2017-Unsupervised Learning:Deep Auto-encoder
時間 2020-12-24
原文
原文鏈接
Auto-encoder使用神經網絡進行降維。由於這裏是無監督學習,因此encoder的訓練過程需要採用decoder同時進行訓練,如下圖所示。這與PCA的過程類似,首先通過輸入的圖片,乘以矩陣W,得到降維後的數據,然後對於降維數據乘以前述矩陣的轉置,可以得到預測的輸出圖片。 auto-encoder就是比PCA多加了幾個Hidden layer 結果對比: auto-encoder的結果較好較清
>>阅读原文<<
相關文章
1.
【李宏毅】RNN
2.
李宏毅__ML_Notes_4.21
3.
李宏毅__ML_Notes_5.11
4.
【李宏毅】CNN
5.
李宏毅——GAN
6.
李宏毅——transformer
7.
transformer---李宏毅
8.
李宏毅:Batch Normalization
9.
李宏毅:Pointer Network
10.
李宏毅:Activation Function
更多相關文章...
•
R 數據框
-
R 語言教程
•
錯誤處理
-
RUST 教程
•
Docker容器實戰(一) - 封神Server端技術
•
Docker容器實戰(八) - 漫談 Kubernetes 的本質
相關標籤/搜索
李宏毅
autoencoder
李彥宏
李宏毅機器學習(2017)
方毅
毅然
毅力
0
分享到微博
分享到微信
分享到QQ
每日一句
每一个你不满意的现在,都有一个你没有努力的曾经。
最新文章
1.
正確理解商業智能 BI 的價值所在
2.
解決梯度消失梯度爆炸強力推薦的一個算法-----LSTM(長短時記憶神經網絡)
3.
解決梯度消失梯度爆炸強力推薦的一個算法-----GRU(門控循環神經⽹絡)
4.
HDU4565
5.
算概率投硬幣
6.
密碼算法特性
7.
DICOMRT-DiTools:clouddicom源碼解析(1)
8.
HDU-6128
9.
計算機網絡知識點詳解(持續更新...)
10.
hods2896(AC自動機)
本站公眾號
歡迎關注本站公眾號,獲取更多信息
相關文章
1.
【李宏毅】RNN
2.
李宏毅__ML_Notes_4.21
3.
李宏毅__ML_Notes_5.11
4.
【李宏毅】CNN
5.
李宏毅——GAN
6.
李宏毅——transformer
7.
transformer---李宏毅
8.
李宏毅:Batch Normalization
9.
李宏毅:Pointer Network
10.
李宏毅:Activation Function
>>更多相關文章<<