1.3 神經網絡入門-梯度降低與Transorflow基礎

1.3 梯度降低與Transorflow基礎

關於梯度降低的解能夠參考這篇文章:www.jianshu.com/p/bf50fc0aa…編程

Transorflow基礎網絡

  • Google Brain的第二代機器學習框架框架

  • 開源社區活躍機器學習

  • 可擴展性強函數

  • API建全,對用戶友好學習

  • 計算圖模型cdn

    • 命令式編程blog

      image

    • 聲明式編程get

      image

    • 命令式編程和聲明式編程對比it

      image

      聲明式編程的優勢:獲得計算圖以後,不少計算圖通用的特性就能夠利用的上了,好比一個神經網絡有多層,每一層的計算是類似的,因此曾與層直接的求導方式也是類似的,咱們能夠寫一個通用的函數附加到神經網絡上,這樣的函數能夠針對任意參數的神經網絡去計算,這個時候若是有一個新的神經網絡的話,我就不用去寫一個新的函數去求導;

      而命令式編程卻作不到,覺得他的變量都是本身定義的

    • 神經網絡的模型是實現設定好的,可是數據先前是不知道的,因此須要定義好神經網絡以後,才能把數據輸入進來,去調整參數,使得神經網絡能夠去符合這個數據,因此這就是Transorflow框架使用計算圖模型的基礎

相關文章
相關標籤/搜索