python 數據分析--pandas

接下來pandas介紹中將學習到以下8塊內容:
一、數據結構簡介:DataFrame和Series
二、數據索引index
三、利用pandas查詢數據
四、利用pandas的DataFrames進行統計分析
五、利用pandas實現SQL操做
六、利用pandas進行缺失值的處理
七、利用pandas實現Excel的數據透視表功能
八、多層索引的使用html

 

1、數據結構介紹

  在pandas中有兩類很是重要的數據結構,即序列Series和數據框DataFrame。Series相似於numpy中的一維數組,除了通吃一維數組可用的函數或方法,並且其可經過索引標籤的方式獲取數據,還具備索引的自動對齊功能;DataFrame相似於numpy中的二維數組,一樣能夠通用numpy數組的函數和方法,並且還具備其餘靈活應用,後續會介紹到。python

一、Series的建立

序列的建立主要有三種方式:sql

1)經過一維數組建立序列
import numpy as np, pandas as pd
arr1 = np.arange(10)
print(arr1)
print(type(arr1))
s1 = pd.Series(arr1)
print(s1)
print(type(s1))

結果:數據庫

[0 1 2 3 4 5 6 7 8 9]
<class 'numpy.ndarray'>
0    0
1    1
2    2
3    3
4    4
5    5
6    6
7    7
8    8
9    9
dtype: int32
<class 'pandas.core.series.Series'>
View Code
2)經過字典的方式建立序列
import numpy as np, pandas as pd
dic1 = {'a':10,'b':20,'c':30,'d':40,'e':50}
print(dic1)
print(type(dic1))
s2 = pd.Series(dic1)
print(s2)
print(type(s2))
3)經過DataFrame中的某一行或某一列建立序列

這部份內容咱們放在後面講,由於下面就開始將DataFrame的建立。數組

二、DataFrame的建立

數據框的建立主要有三種方式:數據結構

1)經過二維數組建立數據框
import numpy as np, pandas as pd
arr2 = np.array(np.arange(12)).reshape(4,3)
print(arr2)
print(type(arr2))
df1 = pd.DataFrame(arr2)
print(df1)
print(type(df1))

 

2)經過字典的方式建立數據框

如下以兩種字典來建立數據框,一個是字典列表,一個是嵌套字典。app

import pandas as pd
dic2 = {'a':[1,2,3,4],'b':[5,6,7,8],'c':[9,10,11,12],'d':[13,14,15,16]}
print(dic2)
print(type(dic2))
df2 = pd.DataFrame(dic2)
print(df2)
print(type(df2))

dic3 = {'one':{'a':1,'b':2,'c':3,'d':4},'two':{'a':5,'b':6,'c':7,'d':8},'three':{'a':9,'b':10,'c':11,'d':12}}
print(dic3)
print(type(dic3))
df3 = pd.DataFrame(dic3)
print(df3)
print(type(df3))
import pandas as pd
dic2 = {'a':[1,2,3,4],'b':[5,6,7,8],'c':[9,10,11,12],'d':[13,14,15,16]}
print(dic2)
print(type(dic2))
df2 = pd.DataFrame(dic2)
print(df2)
print(type(df2))

dic3 = {'one':{'a':1,'b':2,'c':3,'d':4},'two':{'a':5,'b':6,'c':7,'d':8},'three':{'a':9,'b':10,'c':11,'d':12}}
print(dic3)
print(type(dic3))
df3 = pd.DataFrame(dic3)
print(df3)
print(type(df3))
import pandas as pd
dic2 = {'a':[1,2,3,4],'b':[5,6,7,8],'c':[9,10,11,12],'d':[13,14,15,16]}
print(dic2)
print(type(dic2))
df2 = pd.DataFrame(dic2)
print(df2)
print(type(df2))

dic3 = {'one':{'a':1,'b':2,'c':3,'d':4},'two':{'a':5,'b':6,'c':7,'d':8},'three':{'a':9,'b':10,'c':11,'d':12}}
print(dic3)
print(type(dic3))
df3 = pd.DataFrame(dic3)
print(df3)
print(type(df3))
3)經過數據框的方式建立數據框
import pandas as pd
dic3 = {'one':{'a':1,'b':2,'c':3,'d':4},'two':{'a':5,'b':6,'c':7,'d':8},'three':{'a':9,'b':10,'c':11,'d':12}}
df3 = pd.DataFrame(dic3)
df4 = df3[['one','three']]
print(df4)
print(type(df4))
s3 = df3['one']
print(s3)
print(type(s3))

 

2、數據索引index

細緻的朋友可能會發現一個現象,不管是序列也好,仍是數據框也好,對象的最左邊總有一個非原始數據對象,這個是什麼呢?不錯,就是咱們接下來要介紹的索引。
在我看來,序列或數據框的索引有兩大用處,一個是經過索引值或索引標籤獲取目標數據,另外一個是經過索引,可使序列或數據框的計算、操做實現自動化對齊,下面咱們就來看看這兩個功能的應用。dom

一、經過索引值或索引標籤獲取數據

import numpy as np
import pandas as pd
s4 = pd.Series(np.array([1,1,2,3,5,8]))
print(s4)

若是不給序列一個指定的索引值,則序列自動生成一個從0開始的自增索引。能夠經過index查看序列的索引:ide

s4.index

如今咱們爲序列設定一個自定義的索引值:函數

import numpy as np
import pandas as pd
s4 = pd.Series(np.array([1,1,2,3,5,8]))
s4.index = ['a','b','c','d','e','f']
print(s4)

序列有了索引,就能夠經過索引值或索引標籤進行數據的獲取:

s4[3]
s4['e']
s4[[1,3,5]]
s4[['a','b','d','f']]
s4[:4]
s4['c':]
s4['b':'e']

千萬注意:若是經過索引標籤獲取數據的話,末端標籤所對應的值是能夠返回的!在一維數組中,就沒法經過索引標籤獲取數據,這也是序列不一樣於一維數組的一個方面。(根本沒索引)

二、自動化對齊

若是有兩個序列,須要對這兩個序列進行算術運算,這時索引的存在就體現的它的價值了—自動化對齊.

import numpy as np
import pandas as pd
s5 = pd.Series(np.array([10,15,20,30,55,80]),
index = ['a','b','c','d','e','f'])
print(s5)
s6 = pd.Series(np.array([12,11,13,15,14,16]),
index = ['a','c','g','b','d','f'])
print(s6)
print(s5 + s6)
print(s5/s6)

因爲s5中沒有對應的g索引,s6中沒有對應的e索引,因此數據的運算會產生兩個缺失值NaN。注意,這裏的算術結果就實現了兩個序列索引的自動對齊,而非簡單的將兩個序列加總或相除。對於數據框的對齊,不只僅是行索引的自動對齊,同時也會自動對齊列索引(變量名)

數據框中一樣有索引,並且數據框是二維數組的推廣,因此其不只有行索引,並且還存在列索引,關於數據框中的索引相比於序列的應用要強大的多,這部份內容將放在數據查詢中講解。

 

3、利用pandas查詢數據

這裏的查詢數據至關於R語言裏的subset功能,能夠經過布爾索引有針對的選取原數據的子集、指定行、指定列等。咱們先導入一個student數據集:

student = pd.io.parsers.read_csv('fileName.csv')

查詢數據的前5行或末尾5行

student.head()
student.tail()

查詢指定的行

student.ix[[0,2,4,5,7]] #這裏的ix索引標籤函數必須是中括號[]

查詢指定的列

student[['Name','Height','Weight']].head() #若是多個列的話,必須使用雙重中括號

查詢指定的行和列

student.ix[[0,2,4,5,7],['Name','Height','Weight']].head()

以上是從行或列的角度查詢數據的子集,如今咱們來看看如何經過布爾索引實現數據的子集查詢。
查詢全部女生的信息

student[student['Sex']=='F']

查詢出全部12歲以上的女生信息

student[(student['Sex']=='F') & (student['Age']>12)]

查詢出全部12歲以上的女生姓名、身高和體重

student[(student['Sex']=='F') & (student['Age']>12)][['Name','Height','Weight']]

上面的查詢邏輯其實很是的簡單,須要注意的是,若是是多個條件的查詢,必須在&(且)或者|(或)的兩端條件用括號括起來。

 

4、統計分析

pandas模塊爲咱們提供了很是多的描述性統計分析的指標函數,如總和、均值、最小值、最大值等,咱們來具體看看這些函數:
首先隨機生成三組數據

np.random.seed(1234)
d1 = pd.Series(2*np.random.normal(size = 100)+3)
d2 = np.random.f(2,4,size = 100)
d3 = np.random.randint(1,100,size = 100)
d1.count() #非空元素計算
d1.min() #最小值
d1.max() #最大值
d1.idxmin() #最小值的位置,相似於R中的which.min函數
d1.idxmax() #最大值的位置,相似於R中的which.max函數
d1.quantile(0.1) #10%分位數
d1.sum() #求和
d1.mean() #均值
d1.median() #中位數
d1.mode() #衆數
d1.var() #方差
d1.std() #標準差
d1.mad() #平均絕對誤差
d1.skew() #偏度
d1.kurt() #峯度
d1.describe() #一次性輸出多個描述性統計指標

必須注意的是,descirbe方法只能針對序列或數據框,一維數組是沒有這個方法的

這裏自定義一個函數,將這些統計描述指標所有彙總到一塊兒:

import pandas as pd
import numpy as np
def stats(x):
    return pd.Series([x.count(),x.min(),x.idxmin(),x.quantile(.25),x.median(),x.quantile(.75),x.mean(),x.max(),x.idxmax(),x.mad(),x.var(),x.std(),x.skew(),x.kurt()],index =['Count','Min','Whicn_Min','Q1','Median','Q3','Mean','Max','Which_Max','Mad','Var','Std','Skew','Kurt'])

d1 = pd.Series(2*np.random.normal(size = 100)+3)
stats(d1)

 

在實際的工做中,咱們可能須要處理的是一系列的數值型數據框,如何將這個函數應用到數據框中的每一列呢?可使用apply函數,這個很是相似於R中的apply的應用方法。
將以前建立的d1,d2,d3數據構建數據框:

import numpy as np
import pandas as pd

def stats(x):
return pd.Series([x.count(),x.min(),x.idxmin(),x.quantile(.25),x.median(),x.quantile(.75),x.mean(),x.max(),x.idxmax(),x.mad(),x.var(),x.std(),x.skew(),x.kurt()],index =['Count','Min','Whicn_Min','Q1','Median','Q3','Mean','Max','Which_Max','Mad','Var','Std','Skew','Kurt'])

np.random.seed(1234)
d1 = pd.Series(2*np.random.normal(size = 100)+3)
d2 = np.random.f(2,4,size = 100)
d3 = np.random.randint(1,100,size = 100)

df = pd.DataFrame(np.array([d1,d2,d3]).T,columns=['x1','x2','x3'])
print(df.head())
print(df.apply(stats))
df = pd.DataFrame(np.array([d1,d2,d3]).T,columns=['x1','x2','x3']) df.head() df.apply(stats)

結果:

         x1        x2    x3
0  3.942870  1.369531  55.0
1  0.618049  0.943264  68.0
2  5.865414  0.590663  73.0
3  2.374696  0.206548  59.0
4  1.558823  0.223204  60.0
                   x1          x2          x3
Count      100.000000  100.000000  100.000000
Min         -4.127033    0.014330    3.000000
Whicn_Min   81.000000   72.000000   76.000000
Q1           2.040101    0.249580   25.000000
Median       3.204555    1.000613   54.500000
Q3           4.434788    2.101581   73.000000
Mean         3.070225    2.028608   51.490000
Max          7.781921   18.791565   98.000000
Which_Max   39.000000   53.000000   96.000000
Mad          1.511288    1.922669   24.010800
Var          4.005609   10.206447  780.090808
Std          2.001402    3.194753   27.930106
Skew        -0.649478    3.326246   -0.118917
Kurt         1.220109   12.636286   -1.211579
View Code

很是完美,就這樣很簡單的建立了數值型數據的統計性描述。若是是離散型數據呢?就不能用這個統計口徑了,咱們須要統計離散變量的觀測數、惟一值個數、衆數水平及個數。你只須要使用describe方法就能夠實現這樣的統計了。

student['Sex'].describe()

備註:數值數據,結果的索引將包括計數,平均值,標準差,最小值,最大值以及較低的百分位數和50。默認狀況下,較低的百分位數爲25,較高的百分位數爲75.50百分位數與中位數相同。

 

除以上的簡單描述性統計以外,還提供了連續變量的相關係數(corr)和協方差矩陣(cov)的求解,這個跟R語言是一致的用法

df.corr()

關於相關係數的計算能夠調用pearson方法或kendell方法或spearman方法,默認使用pearson方法。

df.corr('spearman')

其中,不一樣的係數運算方式對數據的形態是有不一樣的要求的

若是隻想關注某一個變量與其他變量的相關係數的話,可使用corrwith,以下方只關心x1與其他變量的相關係數:

df.corrwith(df['x1'])

數值型變量間的協方差矩陣

df.cov()

 

5、相似於SQL的操做

在SQL中常見的操做主要是增、刪、改、查幾個動做,那麼pandas可否實現對數據的這幾項操做呢?答案是Of Course!

增:添加新行或增長新列
  1. In [99]: dic = {'Name':['LiuShunxiang','Zhangshan'],
  2. ...: 'Sex':['M','F'],'Age':[27,23],
  3. ...: 'Height':[165.7,167.2],'Weight':[61,63]}
  4. In [100]: student2 = pd.DataFrame(dic)
  5. In [101]: student2
  6. Out[101]:
  7. Age Height Name Sex Weight
  8. 0 27 165.7 LiuShunxiang M 61
  9. 1 23 167.2 Zhangshan F 63

如今將student2中的數據新增到student中,能夠經過concat函數實現:

注意到了嗎?在數據庫中union必需要求兩張表的列順序一致,而這裏concat函數能夠自動對齊兩個數據框的變量!

新增列的話,其實在pandas中就更簡單了,例如在student2中新增一列學生成績:

對於新增的列沒有賦值,就會出現空NaN的形式。

刪:刪除表、觀測行或變量列

刪除數據框student2,經過del命令實現,該命令能夠刪除Python的全部對象。

刪除指定的行

原數據中的第1,2,4,7行的數據已經被刪除了。
根據布爾索引刪除行數據,其實這個刪除就是保留刪除條件的反面數據,例如刪除全部14歲如下的學生:

刪除指定的列

咱們發現,不管是刪除行仍是刪除列,均可以經過drop方法實現,只須要設定好刪除的軸便可,即調整drop方法中的axis參數。默認該參數爲0,表示刪除行觀測,若是須要刪除列變量,則需設置爲1。

改:修改原始記錄的值

若是發現表中的某些數據錯誤了,如何更改原來的值呢?咱們試試結合布爾索引和賦值的方法:
例如發現student3中姓名爲Liushunxiang的學生身高錯了,應該是173,如何改呢?

這樣就能夠把原來的身高修改成如今的170了。
看,關於索引的操做很是靈活、方便吧,就這樣輕鬆搞定數據的更改。

查:有關數據查詢部分,上面已經介紹過,下面重點講講聚合、排序和多表鏈接操做。
聚合:pandas模塊中能夠經過groupby()函數實現數據的聚合操做

根據性別分組,計算各組別中學生身高和體重的平均值:

若是不對原始數據做限制的話,聚合函數會自動選擇數值型數據進行聚合計算。若是不想對年齡計算平均值的話,就須要剔除改變量:

groupby還可使用多個分組變量,例如根本年齡和性別分組,計算身高與體重的平均值:

固然,還能夠對每一個分組計算多個統計量:

是否是很簡單,只需一句就能完成SQL中的SELECT…FROM…GROUP BY…功能,何樂而不爲呢?

排序:

排序在平常的統計分析中仍是比較常見的操做,咱們可使用order、sort_index和sort_values實現序列和數據框的排序工做:

咱們再試試降序排序的設置:

上面兩個結果其實都是按值排序,而且結果中都給出了警告信息,即建議使用sort_values()函數進行按值排序。

在數據框中通常都是按值排序,例如:

多表鏈接:

多表之間的鏈接也是很是常見的數據庫操做,鏈接份內鏈接和外鏈接,在數據庫語言中經過join關鍵字實現,pandas我比較建議使用merger函數實現數據的各類鏈接操做。
以下是構造一張學生的成績表:

如今想把學生表student與學生成績表score作一個關聯,該如何操做呢?

注意,默認狀況下,merge函數實現的是兩個表之間的內鏈接,即返回兩張表中共同部分的數據。能夠經過how參數設置鏈接的方式,left爲左鏈接;right爲右鏈接;outer爲外鏈接。

左鏈接實現的是保留student表中的全部信息,同時將score表的信息與之配對,能配多少配多少,對於沒有配對上的Name,將會顯示成績爲NaN。

6、缺失值處理

 

現實生活中的數據是很是雜亂的,其中缺失值也是很是常見的,對於缺失值的存在可能會影響到後期的數據分析或挖掘工做,那麼咱們該如何處理這些缺失值呢?經常使用的有三大類方法,即刪除法、填補法和插值法。
刪除法:當數據中的某個變量大部分值都是缺失值,能夠考慮刪除改變量;當缺失值是隨機分佈的,且缺失的數量並非不少是,也能夠刪除這些缺失的觀測。
替補法:對於連續型變量,若是變量的分佈近似或就是正態分佈的話,能夠用均值替代那些缺失值;若是變量是有偏的,可使用中位數來代替那些缺失值;對於離散型變量,咱們通常用衆數去替換那些存在缺失的觀測。
插補法:插補法是基於蒙特卡洛模擬法,結合線性模型、廣義線性模型、決策樹等方法計算出來的預測值替換缺失值。

咱們這裏就介紹簡單的刪除法和替補法:

這是一組含有缺失值的序列,咱們能夠結合sum函數和isnull函數來檢測數據中含有多少缺失值:

  1. In [130]: sum(pd.isnull(s))
  2. Out[130]: 9

直接刪除缺失值

默認狀況下,dropna會刪除任何含有缺失值的行,咱們再構造一個數據框試試:

返回結果代表,數據中只要含有缺失值NaN,該數據行就會被刪除,若是使用參數how=’all’,則代表只刪除全部行爲缺失值的觀測。

使用一個常量來填補缺失值,可使用fillna函數實現簡單的填補工做:
1)用0填補全部缺失值

2)採用前項填充或後向填充

3)使用常量填充不一樣的列

4)用均值或中位數填充各自的列

很顯然,在使用填充法時,相對於常數填充或前項、後項填充,使用各列的衆數、均值或中位數填充要更加合理一點,這也是工做中經常使用的一個快捷手段。

 

7、數據透視表

pivot_table(data,values=None,
index=None,
columns=None,
aggfunc='mean',
fill_value=None,
margins=False,
dropna=True,
margins_name='All')
data:須要進行數據透視表操做的數據框
values:指定須要聚合的字段
index:指定某些原始變量做爲行索引
columns:指定哪些離散的分組變量
aggfunc:指定相應的聚合函數
fill_value:使用一個常數替代缺失值,默認不替換
margins:是否進行行或列的彙總,默認不彙總
dropna:默認全部觀測爲缺失的列
margins_name:默認行彙總或列彙總的名稱爲'All'

咱們仍然以student表爲例,來認識一下數據透視表pivot_table函數的用法:
對一個分組變量(Sex),一個數值變量(Height)做統計彙總

對一個分組變量(Sex),兩個數值變量(Height,Weight)做統計彙總

對兩個分組變量(Sex,Age),兩個數值變量(Height,Weight)做統計彙總

很顯然這樣的結果並不像Excel中預期的那樣,該如何變成列聯表的形式的?很簡單,只需將結果進行非堆疊操做(unstack)便可:

看,這樣的結果是否是比上面那種看起來更舒服一點?

使用多個聚合函數

有關更多數據透視表的操做,可參考《Pandas透視表(pivot_table)詳解》一文,連接地址:http://python.jobbole.com/81212/

 

8、多層索引的使用

最後咱們再來說講pandas中的一個重要功能,那就是多層索引。在序列中它能夠實如今一個軸上擁有多個索引,就相似於Excel中常見的這種形式:

對於這樣的數據格式有什麼好處呢?pandas能夠幫咱們實現用低維度形式處理高維數數據,這裏舉個例子也許你就能明白了:

對於這種多層次索引的序列,取數據就顯得很是簡單了:

對於這種多層次索引的序列,咱們還能夠很是方便的將其轉換爲數據框的形式:

以上針對的是序列的多層次索引,數據框也一樣有多層次的索引,並且每條軸上均可以有這樣的索引,就相似於Excel中常見的這種形式:

咱們不妨構造一個相似的高維數據框:

一樣,數據框中的多層索引也能夠很是便捷的取出大塊數據:

在數據框中使用多層索引,能夠將整個數據集控制在二維表結構中,這對於數據重塑和基於分組的操做(如數據透視表的生成)比較有幫助。
就拿student二維數據框爲例,咱們構造一個多層索引數據集:

講到這裏,咱們關於pandas模塊的學習基本完成,其實在掌握了pandas這8個主要的應用方法就能夠靈活的解決不少工做中的數據處理、統計分析等任務。有關更多的pandas介紹,可參考pandas官方文檔:http://pandas.pydata.org/pandas-docs/version/0.17.0/whatsnew.html。  

 

 

 

 

 

 

 

 

感謝劉順祥做者分享

相關文章
相關標籤/搜索