《深度學習工程師》聽課筆記,編程做業和課後練習

                                                                                                                              


向AI轉型的程序員都關注了這個號👇👇👇python

大數據挖掘DT機器學習  公衆號: datayx程序員



課程地址、筆記、代碼獲取方式:web


一、轉發本文至朋友圈
算法

二、關注微信公衆號 datayx  而後回覆 深度學習  便可獲取。
windows


目錄微信


神經網絡與深度學習
 1. 神經網絡的基礎網絡


  • Logistic 迴歸app

  • Logistic 迴歸的損失函數框架

  • 梯度降低法機器學習

  • 邏輯迴歸的梯度降低法

  • m個樣本的梯度降低法

  • 向量化

  • Python 廣播

      

2. 淺層神經網絡


  • 神經網絡表示

  • 神經網絡輸出

  • 激活函數

  • 激活函數的導數

  • 神經網絡的梯度降低法

  • 隨機初始化


3.深層神經網絡

    

  • 深層神經網絡的前向傳播和反向傳播

  • 覈對矩陣的維數

  • 使用深層表示的緣由

  • 參數和超參數


改進深度神經網絡:超參數調整,正則化和優化

1. 深度學習的實用層面

    

  • 訓練、驗證、測試集

  • 誤差、方差

  • 正則化

  • 爲何正則化有利於防止過擬合

  • dropout正則化

  • 理解dropout

  • 其餘正則化方法

  • 標準化(歸一化)輸入

  • 梯度消失和梯度爆炸

  • 神經網絡的權重初始化

  • 梯度的數值逼近

  • 梯度檢驗

  • 梯度驗證應用的注意事項


2.優化算法

    

  • Mini-batch梯度降低

  • 指數加權平均

  • 理解指數加權平均

  • 指數加權平均的誤差修正

  • momentum梯度降低

  • RMSprop

  • Adam優化算法

  • 學習率衰減

  • 局部最優問題


3.超參數調試、Batch 正則化和程序框架

    

  

  • 超參數調試處理

  • 爲超參數選擇合適的範圍

  • 超參數調試實踐:Pandas vs. Caviar

  • 網絡中的正則化激活函數

  • 在神經網絡中融入Batch Norm

  • Batch Norm 起做用的緣由

  • 在測試數據上使用 Batch Norm

  • Softmax 迴歸

  • 訓練 Sotfmax 分類器



結構化機器學習項目

   

     機器學習策略(1)




    • 爲何是ML策略

    • 正交化

    • 單一數字評估指標

    • 知足和優化指標

    • 訓練集、開發集、測試集的劃分

    • 開發集和測試集的大小

    • 何時改變開發/測試集和評估指標

    • 爲何是人的表現

    • 可避免誤差

    • 理解人類的表現

    • 超越人類的表現

    • 改善你的模型表現




    機器學習策略(2)



    • 偏差分析

    • 清除標註錯誤的數據

    • 快速搭建第一個系統並開始迭代

    • 在不一樣分佈上的訓練集和測試集

    • 數據分佈不匹配的誤差和方差分析

    • 處理數據不匹配的問題

    • 遷移學習

    • 多任務學習

    • 何爲端到端的深度學習

    • 是否使用端到端的深度學習方法




  卷積神經網絡

        1. 卷積神經網絡基礎

            

    • 計算機視覺

    • 邊緣檢測示例

    • 更多邊緣檢測的內容

    • padding

    • 卷積步長

    • 三維卷積

    • 單層卷積網絡

    • 簡單神經網絡示例

    • 池化層

    • 卷積神經網絡示例

    • 爲何使用卷積?

       

    2. 深度卷積網絡:實例探究

        

    • 爲何要進行實例探究

    • 經典網絡

      • LeNet-5

      • AlexNet

      • VGG

    • 殘差網絡

    • 爲何殘差有用?

    • 網絡中的網絡以及1×1卷積

    • 谷歌Inception網絡簡介

    • Inception網絡

    • 使用開源的實現方案

    • 遷移學習

    • 數據擴充

    • 計算機視覺現狀


    3. 目標檢測

        

    • 目標定位(Object localization)

    • 特徵點檢測(Landmark detection)

    • 目標檢測(Object detection)

    • 卷積的滑動窗口實現(Convolutional implementation of sliding windows)

    • Bounding Box預測(Bounding box predictions)

    • 交併比(Intersection over union)

    • 非極大值抑制(Non-max suppression)

    • Anchor Boxes

    • YOLO 算法(Putting it together: YOLO algorithm)

    • 候選區域(選修)(Region proposals (Optional))

       

    3.特殊應用:人臉識別和神經風格轉換

             

    • 什麼是人臉識別?(What is face recognition?)

    • One-Shot學習(One-shot learning)

    • Siamese 網絡(Siamese network)

    • Triplet 損失(Triplet Loss)

    • 面部驗證與二分類(Face verification and binary classification)

    • 什麼是神經風格轉換?(What is neural style transfer?)

    • 什麼是深度卷積網絡?(What are deep ConvNets learning?)

    • 代價函數(Cost function)

    • 內容代價函數(Content cost function)

    • 風格代價函數(Style cost function)

    • 一維到三維推廣(1D and 3D generalizations of models)

        

    序列模型

        1. 循環神經網絡(RNN)
            

    • 爲何選擇序列模型?

    • 數學符號

    • 循環神經網絡模型

      • 對時間序列參數共享的理解

    • 經過時間的反向傳播

    • 不一樣類型的循環神經網絡

    • 語言模型和序列生成

    • 對新序列採樣

    • 循環神經網絡的梯度消失

    • GRU單元

    • 長短時間記憶(LSTM)

    • 雙向循環神經網絡

    • 深層循環神經網絡





閱讀過本文的人還看了如下:


《21個項目玩轉深度學習:基於TensorFlow的實踐詳解》完整版PDF+附書代碼


Machine Learning Yearning 中文翻譯稿


深度學習500問,輕鬆掌握從基礎到進階(附答案)


全球AI挑戰-場景分類的比賽源碼(多模型融合)



不斷更新資源

深度學習、機器學習、數據分析、python

 搜索公衆號添加: datayx  

長按圖片,識別二維碼,點關注



深度學習 500問

使用 ReLu 激活函數的優勢

1、在區間變更很大的狀況下,ReLu 激活函數的導數或者激活函數的斜率都會遠大於 0, 在程序實現就是一個 if-else 語句,而 sigmoid 函數須要進行浮點四則運算,在實踐中,使用ReLu 激活函數神經網絡一般會比使用 sigmoid 或者 tanh 激活函數學習的更快。

2sigmoid tanh 函數的導數在正負飽和區的梯度都會接近於 0,這會形成梯度彌散,而Relu Leaky ReLu 函數大於 0 部分都爲常數,不會產生梯度彌散現象。

3、需注意,Relu 進入負半區的時候,梯度爲 0,神經元此時不會訓練,產生所謂的稀疏 性,而 Leaky ReLu 不會產生這個問題。




本文分享自微信公衆號 - 機器學習AI算法工程(datayx)。
若有侵權,請聯繫 support@oschina.cn 刪除。
本文參與「OSC源創計劃」,歡迎正在閱讀的你也加入,一塊兒分享。

相關文章
相關標籤/搜索