數據挖掘深刻理解和學習路徑

上一篇文章中分享了數據分析的學習全景路徑算法

其中最關鍵的部分就是數據挖掘,那什麼是數據挖掘呢?安全

數據挖掘就是經過分析採集而來的數據源,從龐大的數據中發現規律,找到寶藏。網絡

 

一,數據挖掘的基本流程機器學習

  數據挖掘可分爲6個步驟:學習

    1.商業理解:數據挖掘不是咱們的目的,咱們的目的是更好地幫助業務,因此第一步咱們要從商業的角度理解項目需求,在這個基礎上,再對數據挖掘的目標進行定義。大數據

    2.數據理解:嘗試收集部分數據,而後對數據進行探索,包括數據描述、數據質量驗證等。這有助於你對收集的數據有個初步的認知。優化

    3.數據準備:開始收集數據,並對數據進行清洗、數據集成等操做,完成數據挖掘前的準備工做網站

    4.模型創建:選擇和應用各類數據挖掘模型,並進行優化,以便獲得更好的分類結果spa

    5.模型評估:對模型進行評價,並檢查構建模型的每一個步驟,確認模型是否實現了預約的商業目標rest

    6.上線發佈:  :模型的做用是從數據中找到金礦,也就是咱們所說的「知識」,得到的知識須要轉化成用戶可使用的方式,呈現的形式能夠是一份報告,也能夠是實現一個比較複雜的、可重複的數據挖掘過程。

             數據挖掘結果若是是平常運營的一部分,那麼後續的監控和維護就會變得重要。

二,數據挖掘的十大算法

  爲了進行數據挖掘任務,數據科學家們提出了各類模型,在衆多的數據挖掘模型中,國際權威的學術組織 ICDM (the IEEE International Conference on Data Mining)評選出了十大經典的算法。

按照不一樣的目的,我能夠將這些算法分紅四類,以便你更好的理解。

  l1. 分類算法:C4.5,樸素貝葉斯(Naive Bayes),SVM,KNN,Adaboost,CART
  l2.  聚類算法:K-Means,EM
  l3.  關聯分析:Apriori
  l4.  鏈接分析:PageRank

  1. C4.5
    C4.5 算法是得票最高的算法,能夠說是十大算法之首。C4.5 是決策樹的算法,它創造性地在決策樹構造過程當中就進行了剪枝,而且能夠處理連續的屬性,也能對不完整的數據進行處理。它能夠說是決策樹分類中,具備里程碑式意義的算法。
  2. 樸素貝葉斯(Naive Bayes)
    樸素貝葉斯模型是基於機率論的原理,它的思想是這樣的:對於給出的未知物體想要進行分類,就須要求解在這個未知物體出現的條件下各個類別出現的機率,哪一個最大,就認爲這個未知物體屬於哪一個分類。
  3. SVM
    SVM 的中文叫支持向量機,英文是 Support Vector Machine,簡稱 SVM。SVM 在訓練中創建了一個超平面的分類模型。若是你對超平面不理解,沒有關係,我在後面的算法篇會給你進行介紹。
  4. KNN
    KNN 也叫 K 最近鄰算法,英文是 K-Nearest Neighbor。所謂 K 近鄰,就是每一個樣本均可以用它最接近的 K 個鄰居來表明。若是一個樣本,它的 K 個最接近的鄰居都屬於分類 A,那麼這個樣本也屬於分類 A。
  5. AdaBoost
    Adaboost 在訓練中創建了一個聯合的分類模型。boost 在英文中表明提高的意思,因此 Adaboost 是個構建分類器的提高算法。它可讓咱們多個弱的分類器組成一個強的分類器,因此 Adaboost 也是一個經常使用的分類算法。
  6. CART
    CART 表明分類和迴歸樹,英文是 Classification and Regression Trees。像英文同樣,它構建了兩棵樹:一棵是分類樹,另外一個是迴歸樹。和 C4.5 同樣,它是一個決策樹學習方法。
  7. Apriori
    Apriori 是一種挖掘關聯規則(association rules)的算法,它經過挖掘頻繁項集(frequent item sets)來揭示物品之間的關聯關係,被普遍應用到商業挖掘和網絡安全等領域中。頻繁項集是指常常出如今一塊兒的物品的集合,關聯規則暗示着兩種物品之間可能存在很強的關係。
  8. K-Means
    K-Means 算法是一個聚類算法。你能夠這麼理解,最終我想把物體劃分紅 K 類。假設每一個類別裏面,都有個「中心點」,即意見領袖,它是這個類別的核心。如今我有一個新點要歸類,這時候就只要計算這個新點與 K 箇中心點的距離,距離哪一個中心點近,就變成了哪一個類別。
  9. EM
    EM 算法也叫最大指望算法,是求參數的最大似然估計的一種方法。原理是這樣的:假設咱們想要評估參數 A 和參數 B,在開始狀態下兩者都是未知的,而且知道了 A 的信息就能夠獲得 B 的信息,反過來知道了 B 也就獲得了 A。能夠考慮首先賦予 A 某個初值,以此獲得 B 的估值,而後從 B 的估值出發,從新估計 A 的取值,這個過程一直持續到收斂爲止。
EM 算法常常用於聚類和機器學習領域中。
  10. PageRank
    PageRank 起源於論文影響力的計算方式,若是一篇文論被引入的次數越多,就表明這篇論文的影響力越強。一樣 PageRank 被 Google 創造性地應用到了網頁權重的計算中:當一個頁面鏈出的頁面越多,說明這個頁面的「參考文獻」越多,當這個頁面被鏈入的頻率越高,說明這個頁面被引用的次數越高。基於這個原理,咱們能夠獲得網站的權重劃分。

 

三,數據挖掘的數學原理

說了這麼多數據挖掘中的經典算法,可是若是你不瞭解機率論和數理統計,仍是很難掌握算法的本質;若是你不懂線性代數,就很難理解矩陣和向量運做在數據挖掘中的價值;若是你沒有最優化方法的概念,就對迭代收斂理解不深。因此說,想要更深入地理解數據挖掘的方法,就很是有必要了解它後背的數學原理。
  1. 機率論與數理統計
    機率論在咱們上大學的時候,基本上都學過,不過大學裏老師教的內容,偏機率的多一些,統計部分講得比較少。在數據挖掘裏使用到機率論的地方就比較多了。好比條件機率、獨立性的概念,以及隨機變量、多維隨機變量的概念。
    不少算法的本質都與機率論相關,因此說機率論與數理統計是數據挖掘的重要數學基礎。
  2. 線性代數
    向量和矩陣是線性代數中的重要知識點,它被普遍應用到數據挖掘中,好比咱們常常會把對象抽象爲矩陣的表示,一幅圖像就能夠抽象出來是一個矩陣,咱們也常常計算特徵值和特徵向量,用特徵向量來近似表明物體的特徵。這個是大數據降維的基本思路。
    基於矩陣的各類運算,以及基於矩陣的理論成熟,能夠幫咱們解決不少實際問題,好比 PCA 方法、SVD 方法,以及 MF、NMF 方法等在數據挖掘中都有普遍的應用。
  3. 圖論
    社交網絡的興起,讓圖論的應用也愈來愈廣。人與人的關係,能夠用圖論上的兩個節點來進行鏈接,節點的度能夠理解爲一我的的朋友數。咱們都據說過人脈的六度理論,在 Facebook 上被證實平均一我的與另外一我的的鏈接,只須要 3.57 我的。當然圖論對於網絡結構的分析很是有效,同時圖論也在關係挖掘和圖像分割中有重要的做用。

 

  4. 最優化方法    最優化方法至關於機器學習中自我學習的過程,當機器知道了目標,訓練後與結果存在誤差就須要迭代調整,那麼最優化就是這個調整的過程。通常來講,這個學習和迭代的過程是漫長、隨機的。最優化方法的提出就是用更短的時間獲得收斂,取得更好的效果。

相關文章
相關標籤/搜索