數據分析 第四篇:相關分析

相關分析是數據分析的一個基本方法,能夠用於發現不一樣變量之間的關聯性,關聯是指數據之間變化的類似性,這能夠經過相關係數來描述。發現相關性能夠幫助你預測將來,而發現因果關係意味着你能夠改變世界。 html

一,協方差和相關係數

若是隨機變量X和Y是相互獨立的,那麼協方差less

Cov(X,Y) = E{ [X-E(X)] [Y-E(Y)] } = 0,ide

這意味着當協方差Cov(X,Y) 不等於 0 時,X和Y不相互獨立,而是存在必定的關係,此時,稱做X和Y相關。在統計學上,使用協方差和相關係數來描述隨機變量X和Y的相關性:函數

協方差:若是兩個變量的變化趨勢一致,也就是說若是其中一個大於自身的指望值,另一個也大於自身的指望值,那麼兩個變量之間的協方差就是正值。 若是兩個變量的變化趨勢相反,即其中一個大於自身的指望值,另一個卻小於自身的指望值,那麼兩個變量之間的協方差就是負值。從數值來看,協方差的數值越大,兩個變量同向程度也就越大。ui

µ是變量的指望。spa

相關係數:相關係數消除了兩個變量變化幅度的影響,只是單純反應兩個變量每單位變化時的類似程度code

δ是變量的標準差。htm

相關係數用於描述定量變量之間的關係,相關係數的符號(+、-)代表關係的方向(正相關、負相關),其值的大小表示關係的強弱程度(徹底不相關時爲0,徹底相關時爲1)。對象

例如,下面兩種狀況中,很容易看出X和Y都是同向變化的,而這個「同向變化」有個很是顯著特徵:X、Y同向變化的過程,具備極高的類似度。blog

1,觀察協方差,狀況一的協方差是:

狀況二的協方差是:

 

協方差的數值相差一萬倍,只能從兩個協方差都是正數判斷出在這兩種狀況下X、Y都是同向變化,可是一點也看不出兩種狀況下X、Y的變化都具備類似性這一特色。

2,觀察相關係數,狀況一的相關係數是:

狀況二的相關係數是:

 

雖然兩種狀況的協方差相差1萬倍,可是,它們的相關係數是相同的,這說明,X的變化與Y的變化具備很高的類似度。

二,相關的類型

R能夠計算多種相關係數,包括Pearson相關係數、Spearman(秩)相關係數、Kendall(秩)相關係數、偏相關係數等相關係數,相關係數描述的是變量之間的線性相關程度。

  • Pearson相關係數衡量了兩個連續型變量之間的線性相關程度,要求數據連續變量的取值服從正態分佈;
  • Spearman等級相關係數衡量兩個變量之間秩次(排序的位置)的相關程度,一般用於計算離散型數據、分類變量或等級變量之間的相關性;
  • Kendall等級相關係數用於計算有序的分類變量之間的相關係數,對於有序的分類變量,例如,評委對選手的評級,優、中、差等。

1,R函數

cor()函數能夠計算相關係數,而cov()函數用於計算協方差:

cor(x, y = NULL, use = "everything", method = c("pearson", "kendall", "spearman"))
cov(x, y = NULL, use = "everything", method = c("pearson", "kendall", "spearman"))

參數註釋:

  • x:矩陣或數據框
  • y:默認狀況下,y=NULL表示y=x,也就是說,全部變量之間兩兩計算相關,也能夠指定其餘的矩陣或數據框,使得x和y的變量之間兩兩計算相關。
  • use:指定缺失數據的處理方式,可選的方式爲all.obs(遇到缺失數據時報錯)、everything(遇到缺失數據時,把相關係數的計算結果設置爲missing)、complete.obs(行刪除)以及pairwise.complete.obs(成對刪除)
  • method:指定相關係數的類型,可選類型爲"pearson", "kendall", "spearman"

例如,使用R基礎安裝包中的state.x77數據集,它提供了美國50個州的人口、收入、文盲率(Illiteracy)、預期壽命(Life Exp)、謀殺率和高中畢業率(HS Grad)等數據。

states <- state.x77[,1:6]

> cor(states)
            Population     Income Illiteracy    Life Exp     Murder     HS Grad
Population  1.00000000  0.2082276  0.1076224 -0.06805195  0.3436428 -0.09848975
Income      0.20822756  1.0000000 -0.4370752  0.34025534 -0.2300776  0.61993232
Illiteracy  0.10762237 -0.4370752  1.0000000 -0.58847793  0.7029752 -0.65718861
Life Exp   -0.06805195  0.3402553 -0.5884779  1.00000000 -0.7808458  0.58221620
Murder      0.34364275 -0.2300776  0.7029752 -0.78084575  1.0000000 -0.48797102
HS Grad    -0.09848975  0.6199323 -0.6571886  0.58221620 -0.4879710  1.00000000

能夠看到,收入和高中畢業率之間存在很強的正相關(約0.620),文盲率和謀殺率之間存在很強的正相關(約0.703),文盲率和高中畢業率之間存在很強的負相關(約-0.657),預期壽命和謀殺率之間存在很強的負相關(約-0.781)等。

2,Pearson相關係數

Pearson線性相關係數通常用於分析連個連續性變量之間的線性相關的程度,計算公式是:

Pearson線性相關係數要求連續變量的取值服從正太分佈,相關係數r的取值範圍是: -1 <= r <= 1,相關係數有以下特徵:

  • r>0 表示正相關,r<0表示負相關;
  • r=0 表示不存在線性關係
  • r=1 或 r=-1 表示存在徹底的線性關係

0 < | r | <1表示變量之間存在不一樣程度的線性相關,根據約定的規則:

  • | r | <=0.3 :爲弱線性相關或不存在線性相關;
  • 0.3 < | r | <=0.5 :低度線性相關,認爲存在線性相關,可是相關性不明顯
  • 0.5 < | r | <=0.8 :顯著線性相關,認爲存在強線性相關,存在明顯的相關性
  • | r | >0.8 :高度相關,認爲存在極強的線性相關

3,Spearman秩相關係數

對於分類或等級變量之間的關聯性,能夠採用Spearman秩相關係數(也稱做等級相關係數)來描述。「秩」是一種順序或者排序,秩相關係數是根據原始數據的排序位置進行求解,計算公式以下,d是秩次差的平方,n是等級個數:

 

秩次是指數據排序以後的序號,對於有序的分類序列,一、三、五、六、8,數值1的秩次是1,數字5的秩次是3。對於同一個變量,相同的取值必須具備相同的秩次,例如:

例如,按照從大到小的順序對X和Y進行排序:

Spearman秩相關係數實際上是利用兩變量的秩次大小做線性相關分析,下表用於計算變量X和Y的秩相關係數 ρ = 1 - 6*(1+1+1+9) / (6*35) =0.657

從Spearman秩相關係數的計算過程當中,能夠看到,無論X和Y這兩個變量的值差距有多大,只須要算一下它們每一個值所處的排列位置的差值,就能夠求出秩相關性係數。

4,Kendall等級相關係數

Kendall等級(Rank)相關係數,是一種秩相關係數,kendall秩相關係數用於:有n個統計對象,每一個對象有兩個屬性,檢查這兩個屬性的變化是否一致。

舉個例子,假設老師對評委的評價等級:3表示優、2表示中、1表示差,使用評分的Kendall相關係數,查看2位評委對6位選手的評價標準是否一致:

X <- c(3,1,2,2,1,3)
Y <- c(1,2,3,2,1,1)
cor(X,Y,method="kendall")
[1] -0.2611165

再舉個例子,有一組8人的身高和體重,先按照身高排序,再按照體重排序,咱們獲得兩組數據:

使用Kendall等級相關係數這兩個排名(按身高排名和按體重排名)之間的相關性。

5,偏相關

偏相關是指在控制一個或多個定量變量(稱做條件變量)時,另外兩個定量變量之間的相關關係。可使用ggm包中的pcor()函數計算偏相關係數。

pcor(u, S)

參數註釋:

  • u:位置向量,前兩個整數表示要計算偏相關係數的變量下標,其他的整數爲條件變量的下標。
  • S:是數據集的協方差矩陣,即cov()函數計算的結果

例如:在控制了收入、文盲率和高中畢業率的條件下,計算的人口和謀殺率之間的偏相關係數爲0.346

> library(igraph)
> library(ggm)
> colnames(states)
[1] "Population" "Income"     "Illiteracy" "Life Exp"   "Murder"     "HS Grad"  
> pcor(c(1,5,2,3,6),cov(states))
[1] 0.3462724

三,相關性的顯著性檢驗

在計算好相關係數以後,須要對相關性進行顯著性檢驗,經常使用的原假設是變量間不相關(即整體的相關係數爲0),可使用cor.test()函數對單個的Pearson、Spearman和Kendall相關係數進行顯著性檢驗,以驗證原假設是否成立。若是p值很小,說明變量之間存在相關性,相關性的大小由相關係數肯定。

顯著性檢驗返回的結果中,p值(p value)就是當原假設爲真時所獲得的樣本觀察結果出現的機率。若是p值很小,說明原假設狀況的發生的機率很小,而若是出現了,根據小几率原理,咱們就有理由拒絕原假設,p值越小,咱們拒絕原假設的理由越充分。

小几率原理是指:在統計學中,一般把在現實世界中發生概率小於5%的事件稱之爲「不可能事件」,一般把顯著性水平定義爲0.05,或0.025。當p值小於顯著性水平時,把原假設視爲不可能事件,由於拒絕原假設。

1,cor.test()檢驗

cor.test()每次只能檢驗一種相關關係,原假設是變量間不相關,即整體的相關係數是0。

cor.test(x, y,
         alternative = c("two.sided", "less", "greater"),
         method = c("pearson", "kendall", "spearman"),
         exact = NULL, conf.level = 0.95, continuity = FALSE, ...)

參數註釋:

  • alternative:用於指定進行雙側檢驗仍是單側檢驗,有效值是 "two.sided", "greater" 和 "less",對於單側檢驗,當整體的相關係數小於0時,使用alternative="less";當整體的相關係數大於0時,使用alternative="greater";默認狀況下,alternative="two.side",表示整體相關係數不等於0。
  • method:指定計算的相關類型,
  • exact:邏輯值,是否計算出精確的p值
  • conf.level:檢驗的置信水平

例如,下面的代碼用於檢驗預期壽命和謀殺率的Pearson相關係數爲0的原假設,

> cor.test(states[,3],states[,5])

    Pearson's product-moment correlation

data:  states[, 3] and states[, 5]
t = 6.8479, df = 48, p-value = 1.258e-08
alternative hypothesis: true correlation is not equal to 0
95 percent confidence interval:
 0.5279280 0.8207295
sample estimates:
      cor 
0.7029752 

檢驗的結果是:p值(p-value=1.258e-08),樣本估計的相關係數cor 是 0.703,這說明:

假設整體的相關度爲0,則預計在1千萬次中只會有少於1次的機會見到0.703的樣本相關度,因爲這種狀況幾乎不可能發生,因此拒絕原假設,即預期壽命和謀殺率之間的整體相關度不爲0。

2,corr.test()檢驗

psych包中的corr.test()函數,能夠依次爲Pearson、Spearman或Kendall計算相關矩陣和顯著性水平。

corr.test(x, y = NULL, use = "pairwise",method="pearson",adjust="holm", alpha=.05,ci=TRUE)

參數註釋:

  • use:指定缺失數據的處理方式,默認值是pairwise(成對刪除);complete(行刪除)
  • method:計算相關的方法,Pearson(默認值)、Spearman或Kendall

3,偏相關的顯著性檢驗

在多元正態性的假設下,psych包中的pcor.test()函數用於檢驗在控制一個或多個條件變量時,兩個變量之間的獨立性。

pcor.test(r, q, n)

參數註釋:

  • r:是由pcor()函數計算獲得的偏相關係數
  • q:要控制的變量(以位置向量表示)
  • n:樣本大小

四,相關圖

利用corrgram包中的corrgram()函數,使用圖形來顯示相關係數矩陣,

corrgram(x, order = FALSE,lower.panel = panel, upper.panel = panel, text.panel = textPanel, main='title'
  col.regions = colorRampPalette(c("red", "salmon","white", "royalblue", "navy")), cor.method = "pearson",...)

經常使用的參數註釋:

  • x:數據集
  • order:變量是否被排序
  • lower.panel / upeer.panel:對角線下/上的面板
  • text.panel=panel.txt:對角線顯示爲文本
  • main:主標題
  • col.regions:顏色,使用該參數控制函數中使用的顏色。
  • cor.method:作相關分析的函數名稱,默認值是person,其餘可用的值是:spearman, kendall

 例如,以mtcars數據框中的變量相關性爲例,它含有11個變量,對每一個變量都測量了32輛汽車,使用corrgram()函數得到相關係數:

> library(corrgram)
> corrgram(mtcars,order = TRUE, lower.panel = panel.ellipse,upper.panel = panel.pie,text.panel = panel.txt,main='Corrgram of mtcars intercorrelations')

對於相關圖矩陣,對角線上顯示的是變量的名稱,該變量其實是垂直的直線和水平的直線的交點,這兩條直線上的各個點表示也是該變量。

  • 對於上三角:默認地,藍色表示正相關,紅色表示負相關,顏色的深淺表示相關的程度。餅圖的填充的大小表示了相關性的程度,正相關從順時針填充,負相關從逆時針填充,填充的越多,表示相關性越大;
  • 對於下三角:包含平滑擬合曲線和置信橢圓,設置lower.panel=NULL能夠隱藏掉下三角。

從相關圖中能夠看出,disp和cyl的正相關性最大,mpg和wt的負相關性最大。

對於面板的選擇,非對角線的面板選項有:

  • panel.pie:用餅圖的填充比例來表示相關性的大小
  • panel.shade:用陰影的深度來表示相關性的大小
  • panel.ellipse:畫一個置信橢圓和平滑曲線
  • panel.conf:畫出相關性數值和置信區間

主對角線:

  • panel.txt:輸出變量名
  • panel.ednsity:輸出核密度曲線和變量名

 

參考文檔:

類似度計算之斯皮爾曼等級相關係數

【r<-高級|統計】三大相關性係數

統計學之三大相關性係數(pearson、spearman、kendall)

如何通俗易懂地解釋「協方差」與「相關係數」的概念?

相關文章
相關標籤/搜索