摘要: 不吹不黑,絕對史上最全的機器學習學習材料!html
本文包含了迄今爲止你們公認的最佳教程內容。它毫不是網上每一個ML相關教程的詳盡列表,而是通過精挑細選而成的,畢竟網上的東西並不全是好的。我做者彙總的目標是爲了補充我即將出版的新書,爲它尋找在機器學習和NLP領域中找到的最佳教程。node
經過這些最佳教程的彙總,我能夠快速的找到我想要獲得的教程。從而避免了閱讀更普遍覆蓋範圍的書籍章節和苦惱的研究論文,你也許知道,當你的數學功底不是很好的時候這些論文你一般是拿不下的。爲何不買書呢?沒有哪個做者是一個全能先生。當你嘗試學習特定的主題或想要得到不一樣的觀點時,教程多是很是有幫助的。python
我將這篇文章分爲四個部分:機器學習,NLP,Python和數學。我在每一個部分都包含了一些主題,但因爲機器學習是一個很是複雜的學科,我不可能包含全部可能的主題。ios
若是有很好的教程你知道我錯過了,請告訴我!我將繼續完善這個學習教程。我在挑選這些連接的時候,都試圖保證每一個連接應該具備與其餘連接不一樣的材料或以不一樣的方式呈現信息(例如,代碼與幻燈片)或從不一樣的角度。git
機器學習程序員
從機器學習入手(machinelearningmastery.com)github
機器學習頗有趣!(medium.com/@ageitgey)web
機器學習規則:ML工程的最佳實踐(martin.zinkevich.org)算法
機器學習速成課程:第一部分,第二部分,第三部分(伯克利機器學習)shell
機器學習理論及其應用簡介:用一個小例子進行視覺教程(toptal.com)
機器學習的簡單指南(monkeylearn.com)
我應該使用哪一種機器學習算法?(sas.com)
機器學習入門(sas.com)
初學者機器學習教程(kaggle.com/kanncaa1)
激活函數和Dropout函數
Sigmoid神經元(neuralnetworksanddeeplearning.com)
激活函數在神經網絡中的做用是什麼?(quora.com)
神經網絡中常見的激活函數的優缺點比較列表(stats.stackexchange.com)
激活函數及其類型對比(medium.com)
理解對數損失(exegetic.biz)
損失函數(斯坦福CS231n)
L1與L2損失函數(rishy.github.io)
交叉熵成本函數(neuralnetworksanddeeplearning.com)
誤差(bias)
誤差在神經網絡中的做用(stackoverflow.com)
神經網絡中的誤差節點(makeyourownneuralnetwork.blogspot.com)
什麼是人工神經網絡的誤差?(quora.com)
感知器
感知器(neuralnetworksanddeeplearning.com)
感知器(natureofcode.com)
單層神經網絡(感知器)(dcu.ie)
從Perceptrons到Deep Networks(toptal.com)
回歸
線性迴歸分析介紹(duke.edu)
線性迴歸(ufldl.stanford.edu)
線性迴歸(readthedocs.io)
Logistic迴歸(readthedocs.io)
機器學習的簡單線性迴歸教程(machinelearningmastery.com)
機器學習的Logistic迴歸教程(machinelearningmastery.com)
Softmax迴歸(ufldl.stanford.edu)
梯度降低
在梯度降低中學習(neuralnetworksanddeeplearning.com)
梯度降低(iamtrask.github.io)
如何理解梯度降低算法(kdnuggets.com)
梯度降低優化算法概述(sebastianruder.com)
優化:隨機梯度降低(斯坦福CS231n)
生成學習(Generative Learning)
生成學習算法(斯坦福CS229)
樸素貝葉斯分類器的實用解釋(monkeylearn.com)
支持向量機
支持向量機(SVM)簡介(monkeylearn.com)
支持向量機(斯坦福CS229)
線性分類:支持向量機,Softmax(Stanford 231n)
反向傳播
你應該瞭解的backprop(medium.com/@karpathy)
你能給出神經網絡反向傳播算法的直觀解釋嗎?(github.com/rasbt)
反向傳播算法的工做原理(neuralnetworksanddeeplearning.com)
時間反向傳播的簡單介紹(machinelearningmastery.com)
反向傳播,直覺(斯坦福CS231n)
深度學習
YN²深度學習指南(yerevann.com)
深度學習論文閱讀路線圖(github.com/floodsung)
Nutshell中的深度學習(nikhilbuduma.com)
深度學習教程(Quoc V.Le)
什麼是深度學習?(machinelearningmastery.com)
人工智能,機器學習和深度學習之間有什麼區別?(nvidia.com)
深度學習–簡單介紹 (gluon.mxnet.io)
最優化和降維
數據降維減小的七種技術(knime.org)
主成分分析(斯坦福CS229)
Dropout:一種改善神經網絡的簡單方法(Hinton @ NIPS 2012)
如何訓練你的深度神經網絡?(rishy.github.io)
長短時間記憶(LSTM)
長短時間記憶網絡的通俗介紹(machinelearningmastery.com)
瞭解LSTM 神經網絡Networks(colah.github.io)
探索LSTM(echen.me)
任何人均可以學習用Python編寫LSTM-RNN(iamtrask.github.io)
卷積神經網絡(CNN)
卷積網絡介紹(neuralnetworksanddeeplearning.com)
深度學習和卷積神經網絡(medium.com/@ageitgey)
Conv Nets:模塊化視角(colah.github.io)
瞭解卷積(colah.github.io)
遞歸神經網絡(RNN)
遞歸神經網絡教程(wildml.com)
注意和加強的遞歸神經網絡(distill.pub)
遞歸神經網絡的不合理有效性(karpathy.github.io)
強化學習
強化學習初學者入門及其實施指南(analyticsvidhya.com)
強化學習教程(mst.edu)
學習強化學習(wildml.com)
深度強化學習:來自像素的乒乓球(karpathy.github.io)
生成對抗網絡(GAN)
對抗機器學習簡介(aaai18adversarial.github.io)
什麼是生成性對抗網絡?(nvidia.com)
濫用生成對抗網絡製做8位像素藝術(medium.com/@ageitgey)
Generative Adversarial Networks簡介(TensorFlow中的代碼)(aylien.com)
初學者的生成對抗網絡(oreilly.com)
多任務學習
深度神經網絡中多任務學習概述(sebastianruder.com)
NLP
天然語言處理頗有趣!(medium.com/@ageitgey)
天然語言處理神經網絡模型入門(Yoav Goldberg)
天然語言處理權威指南(monkeylearn.com)
天然語言處理簡介(algorithmia.com)
天然語言處理教程(vikparuchuri.com)
天然語言處理(NLP)來自Scratch(arxiv.org)
深度學習和NLP
深度學習適用於NLP(arxiv.org)
NLP的深度學習(沒有魔法)(Richard Socher)
瞭解NLP的卷積神經網絡(wildml.com)
深度學習、NLP、表示(colah.github.io)
最早進的NLP模型的新深度學習公式:嵌入、編碼、參與、預測(explosion.ai)
使用Torch深度神經網絡進行天然語言處理(nvidia.com)
使用Pytorch進行深度學習NLP(pytorich.org)
詞向量
使用詞袋模型解決電影評論分類(kaggle.com)
詞嵌入介紹第一部分,第二部分,第三部分(sebastianruder.com)
詞向量的驚人力量(acolyer.org)
word2vec參數學習解釋(arxiv.org)
Word2Vec教程- Skip-Gram模型,負抽樣(mccormickml.com)
編碼器-解碼器
深度學習和NLP中的注意力機制和記憶力模型(wildml.com)
序列模型(tensorflow.org)
使用神經網絡進行序列學習(NIPS 2014)
機器學習頗有趣第五部分:深度學習的語言翻譯和序列的魔力(medium.com/@ageitgey)
如何使用編碼器-解碼器LSTM來回顯隨機整數序列(machinelearningmastery.com)
tf-seq2seq(google.github.io)
Python
機器學習速成課程(google.com)
使人敬畏的機器學習(github.com/josephmisiti)
使用Python掌握機器學習的7個步驟(kdnuggets.com)
一個示例機器學習筆記(nbviewer.jupyter.org)
使用Python進行機器學習(tutorialspoint.com)
實戰案例
如何在Python中從頭開始實現感知器算法(machinelearningmastery.com)
在Python中使用Scratch實現神經網絡(wildml.com)
使用11行代碼在Python中實現神經網絡(iamtrask.github.io)
使用Python實現你本身的k-Nearest Neighbor算法(kdnuggets.com)
來自Scatch的ML(github.com/eriklindernoren)
Python機器學習(第2版)代碼庫(github.com/rasbt)
Scipy和numpy
Scipy講義(scipy-lectures.org)
Python Numpy教程(斯坦福CS231n)
Numpy和Scipy簡介(UCSB CHE210D)
Python中的科學家速成課程(nbviewer.jupyter.org)
scikit學習
PyCon scikit-learn教程索引(nbviewer.jupyter.org)
scikit-learn分類算法(github.com/mmmayo13)
scikit-learn教程(scikit-learn.org)
簡短的scikit-learn教程(github.com/mmmayo13)
Tensorflow
Tensorflow教程(tensorflow.org)
TensorFlow簡介 - CPU與GPU(medium.com/@erikhallstrm)
TensorFlow(metaflow.fr)
Tensorflow中的RNN(wildml.com)
在TensorFlow中實現CNN進行文本分類(wildml.com)
如何使用TensorFlow運行文本摘要(surmenok.com)
PyTorch
PyTorch教程(pytorch.org)
PyTorch的簡單介紹(gaurav.im)
教程:PyTorch中的深度學習(iamtrask.github.io)
PyTorch示例(github.com/jcjohnson)
PyTorch教程(github.com/MorvanZhou)
深度學習研究人員的PyTorch教程(github.com/yunjey)
數學
機器學習數學(ucsc.edu)
機器學習數學(UMIACS CMSC422)
線性代數
線性代數直觀指南(betterexplained.com)
程序員對矩陣乘法的直覺(betterexplained.com)
瞭解Cross產品(betterexplained.com)
瞭解Dot產品(betterexplained.com)
用於機器學習的線性代數(布法羅大學CSE574)
用於深度學習的線性代數備忘單(medium.com)
線性代數評論與參考(斯坦福CS229)
機率論
用比率理解貝葉斯定理(betterexplained.com)
機率論入門(斯坦福CS229)
機器學習的機率論教程(斯坦福CS229)
機率論(布法羅大學CSE574)
機器學習的機率論(多倫多大學CSC411)
微積分
如何理解導數:商數規則,指數和對數(betterexplained.com)
如何理解導數:產品,動力和鏈條規則(betterexplained.com)
矢量微積分:瞭解漸變(betterexplained.com)
微分學(斯坦福CS224n)
微積分概述(readthedocs.io)
本文由阿里云云棲社區組織翻譯。
文章原標題《over-200-of-the-best-machine-learning-nlp-and-python-tutorials-2018-edition》
做者:Robbie Allen
譯者:虎說八道,審校:。
原文連接 本文爲雲棲社區原創內容,未經容許不得轉載。