機率論-wikiphp
理解 Bias 與 Variance 之間的權衡
//var是不一樣訓練模型之間的差異,比如K-fold之中,若是不一樣模型之間差異很大(var大),也就是說他們都和本身的訓練集與其餘訓練集不接近,因此,不一樣模型之間var很大->他們就都不是truth;而若是bias很大,不用細講,那他們更不是truthjava
先驗機率與後驗機率git
PR曲線、ROC曲線和AUC
詳解最大似然估計(MLE)、最大後驗機率估計(MAP),以及貝葉斯公式的理解
//MLE隱含了參數取任何值的機率都同樣,而MAP則考慮到了參數取不一樣值的機率是有差異的,有些值更容易取到,有些值不容易取到。好比扔十次硬幣,十次都是正,那MLE估計得結果就是正的機率爲1,但你們知道這明顯不可能,因此要用到先驗機率,就是上面所說,咱們預先知道了取1幾乎不可能算法
判別模型(Discriminative model)和生成模型(Generative model)網絡
常見的幾種最優化方法(梯度降低法、牛頓法、擬牛頓法、共軛梯度法等)機器學習
數值優化(Numerical Optimization)學習系列-線搜索方法(LineSearch)學習
SMO優化算法(Sequential minimal optimization)
深刻理解拉格朗日乘子法(Lagrange Multiplier) 和KKT條件
算法雜貨鋪——分類算法之樸素貝葉斯分類(Naive Bayesian classification)
機器學習中的數學(5)-強大的矩陣奇異值分解(SVD)及其應用
特徵降維-PCA(Principal Component Analysis)
主成分分析(Principal components analysis)-最大方差解釋
EM算法(Expectation Maximization Algorithm)詳解
A Step by Step Backpropagation Example
強化學習(Reinforcement Learning, RL)初步介紹
Deep Reinforcement Learning 基礎知識
加強學習Reinforcement Learning經典算法梳理1:policy and value iteration
Build Intelligent Applications
集體智慧編程
機器學習實戰