李飛飛教你玩轉 ImageNet 挑戰賽,斯坦福 CS231n 最新視頻課程全公開

編譯 | 周翔

斯坦福的 CS231n 是深度學習和計算機視覺領域的經典課程之一。近日,斯坦福又開放了由李飛飛主講的 CS231n Spring 2017 所有視頻課程。算法

在AI科技大本營微信公衆號會話回覆「斯坦福」,打包下載16張課程PDF微信

根據官網信息,這次課程的主題爲:Convolutional Neural Networks for Visual Recognition,一共包括 16 個視頻,主要對深度學習架構進行了詳細介紹,並且主要集中在端到端的模型,特別是圖像分類任務上。在 10 周的課程中,學生將學習執行、訓練和調試神經網絡,並詳細瞭解計算機視覺的前沿領域。最終,學生將完成包含數百萬個參數的卷積神經網絡的訓練任務,並將其應用於最大的圖像分類數據集(ImageNet)。網絡

除了李飛飛以外,這次課程還邀請了 Song Han 和 Ian Goodfellow 做爲客座講師,兩人分別對加速深度學習的方法和硬件、以及對抗性樣本和對抗性訓練進行了詳細介紹。

課程官網:架構

http://cs231n.stanford.edu/機器學習

YouTube 地址:ide

https://www.youtube.com/playlist?list=PL3FW7Lu3i5JvHM8ljYj-zLfQRF3EO8sYv函數

Bilibili 視頻地址:性能

http://www.bilibili.com/video/av13260183/#page=1(由微博博主學習

@
愛可可老師上傳)


先決條件
優化

  • 熟練掌握Python、C / C ++

  • 大學微積分、線性代數

  • 基本的機率和統計論

  • 最好學習過 CS229 (機器學習課程)


課程簡介

不論是搜索、圖像理解、應用程序、繪圖、醫學、無人機、仍是自動駕駛汽車,計算機視覺的應用已經無處不在。這些應用裏的核心任務大可能是視覺識別,好比圖像分類、定位、檢測等等。神經網絡(又稱「深度學習」)方法的最新進展大大提升了這些最早進的視覺識別系統的性能。

本課程對深度學習架構進行了詳細介紹,主要集中在端到端的模型,特別是圖像分類任務上。在 10 周的課程中,學生將學習執行、訓練和調試本身的神經網絡,並詳細瞭解計算機視覺的前沿領域。最終,學生將完成包含數百萬個參數的卷積神經網絡的訓練任務,並將其應用於最大的圖像分類數據集(ImageNet)。咱們將重點介紹如何創建圖像識別問題、相應的學習算法(例如反向傳播)、訓練網絡的技巧,並引導學生進行實際操做,經過最終的課程項目。本課程的背景和材料的大部份內容來自 ImageNet 挑戰賽。

課程大綱

課程1:應用於視覺識別的卷積神經網絡簡介(Introduction to Convolutional Neural Networks for Visual Recognition)

簡介:課程1介紹了計算機視覺領域,討論了它的歷史和關鍵性的挑戰。 計算機視覺涵蓋了各類各樣的不一樣任務,儘管近期深度學習取得了一系列的成功,但咱們離實現人類水平的視覺智能的目標仍然很遠。

課程2:圖像分類( Image Classification)

簡介:課程2提出了圖像分類問題。咱們討論了圖像分類的固有難題,並介紹了數據驅動的方法。在該課程中,咱們討論了兩個簡單的數據驅動的圖像分類算法:K-Nearest Neighbors 和 Linear Classifiers,並介紹了超參數和交叉驗證的概念。

課程3:損失函數和優化(Loss Functions and Optimization)

簡介:課程3繼續討論線性分類器。咱們介紹了一種損失函數的概念,來量化咱們對模型預測結果的不滿意的程度,並討論了圖像分類中兩種經常使用的損失函數:多類SVM(支持向量機)損失和多項邏輯迴歸損失。咱們介紹瞭如何用正則化的思想來避免過擬合。此外,咱們還介紹了優化的概念和隨機梯度降低的算法,並簡要討論了計算機視覺中的特徵表示。

課程4:神經網絡簡介(Introduction to Neural NetworksB)

簡介:在課程4中,咱們從線性分類器一直講到了全鏈接神經網絡,並介紹了計算機梯度的反向傳播算法,簡要討論了人工神經網絡和生物神經網絡的關聯。

課程5:卷積神經網絡(Convolutional Neural Networks)

簡介:在課程5中,咱們從全鏈接神經網絡轉向卷積神經網絡。咱們討論了卷積網絡發展過程當中的一些關鍵里程碑,包括感知器、神經認知機、LeNet、以及AlexNet。咱們介紹了卷積、池化、以及全鏈接層的概念,這些都是構成現代卷積網絡的基礎。

課程6:訓練神經網絡(一)(Training Neural Networks I)

簡介:在課程6中,咱們討論了訓練現代神經網絡中的許多實際問題。好比,咱們討論了不一樣的激活函數、數據預處理和權重初始化的重要性,以及 batch normalization。此外,咱們還介紹了監控學習過程和選擇超參數的一些策略。

課程7:訓練神經網絡(二)(Training Neural Networks II)

簡介:課程7繼續討論訓練神經網絡過程當中的實際問題。咱們探討了在訓練期間常常用於優化神經網絡的不一樣更新規則,以及用於大型神經網絡(包括dropout)正則化的不一樣策略。此外,咱們還討論了遷移學習和 finetuning(微調)。

課程8:深度學習軟件(Deep Learning Software)

簡介:在課程8中,咱們討論瞭如何使用不一樣的軟件包進行深度學習,主要是 TensorFlow 和 PyTorch。 此外,咱們還討論了 CPU 和 GPU 之間的一些區別。

課程9:卷積神經網絡的結構(CNN Architectures)

簡介:在課程9中,咱們討論了卷積神經網絡的一些常見架構,主要是一些在 ImageNet 挑戰中表現良好的架構,包括 AlexNet、VGGNet、GoogLeNet、ResNet 以及其餘有趣的模型。

課程10:循環神經網絡(Recurrent Neural Networks)

簡介:在課程10中,咱們討論瞭如何使用循環神經網絡進行序列數據建模。咱們展現瞭如何將循環神經網絡用於語言建模和圖像字幕,以及如何將 soft spatial attention 用在圖像字幕模型中。此外,咱們討論用於循環神經網絡的不一樣架構,包括 LSTM(Long Short Term Memory)和 GRU(Gated Recurrent Units)。

課程11:檢測和分割(Detection and Segmentation)

簡介:在課程11中,咱們展現瞭如何將卷積網絡應用於其餘核心計算機視覺任務,而不只僅是圖像分類。咱們展現瞭如何將具有 downsampling 和 upsampling 層的徹底卷積網絡用於語義分割,以及多任務損失(multitask losses)如何可以用於定位和姿態估計。 咱們討論了一些目標檢測的方法,包括基於區域的 R-CNN 系列方法和 single-shot 方法,如 SSD 和 YOLO。 最後,咱們展現瞭如何將語義分割和對象檢測的想法結合起來進行實例分割(instance segmentation)。

課程12:可視化和理解(Visualizing and Understanding)

在課程12中,咱們討論了實現可視化以及理解卷積神經網絡內部機制的方法。咱們還討論瞭如何使用卷積網絡來生成新的圖像,包括 DeepDream 以及藝術風格的遷移。

課程13:生成式模型(Generative Models)

簡介:在課程13中,咱們將生成模型做爲一種無監督學習的形式進行了討論。該課程涵蓋了自迴歸的 PixelRNN 和 PixelCNN 模型、傳統和變分自動編碼器(VAE)、以及生成對抗網絡(GAN)。

課程14:深度增強學習(Deep Reinforcement Learning)

簡介:在課程14中,咱們從監督學習轉向強化學習(RL),在這種學習中,agent 必須學會與環境交互,才能最大程度地提升回報。 咱們使用馬爾可夫決策過程(MDPs)、policies、價值函數和Q值函數的語言來進行強化學習。咱們討論了強化學習的不一樣算法,包括 Q-Learning,策略梯度 和 Actor-Critic。咱們展現了強化學習已經被用於進行 Atari 遊戲,並在 AlphaGo 中實現超越人類棋手的表現。

課程15:針對深度學習的高效方法和硬件(Efficient Methods and Hardware for Deep Learning)

簡介:在課程15中,客座講師 Song Han 討論了可用於加快深度學習訓練和推論過程的算法和專用硬件。咱們討論了剪枝、weight sharing、量化(quantization)等可加速推理過程的技術,以及並行化(parallelization)、混合精度(mixed precision)等可加速訓練過程的技術。此外,咱們還討論專用於深度學習的硬件,如 GPU,FPGA 和 ASIC,包括 NVIDIA 最新 Volta GPU 中的 Tensor Core 以及Google 的 TPU。

課程16:對抗性樣本和對抗性訓練(Adversarial Examples and Adversarial Training)

簡介:在課程16中,客座講師 Ian Goodfellow 討論了深度學習中的對抗性例子。咱們討論了爲何深度網絡和其餘機器學習模型容易受到對抗性示例的影響,以及如何使用對抗性樣原本訓練機器學習系統。 此外,咱們探討了針對對抗性樣本的潛在防護,以及在沒有明確的對抗下,如何用對抗樣原本改進機器學習系統。
相關文章
相關標籤/搜索