程序員用於機器學習編程的Python 數據處理庫 pandas 入門教程

入門介紹

pandas適合於許多不一樣類型的數據,包括:html

· 具備異構類型列的表格數據,例如SQL表格或Excel數據python

· 有序和無序(不必定是固定頻率)時間序列數據。git

· 具備行列標籤的任意矩陣數據(均勻類型或不一樣類型)github

· 任何其餘形式的觀測/統計數據集。sql

因爲這是一個Python語言的軟件包,所以須要你的機器上首先須要具有Python語言的環境。關於這一點,請自行在網絡上搜索獲取方法。json

關於如何獲取pandas請參閱官網上的說明:pandas Installation數組

一般狀況下,咱們能夠經過pip來執行安裝:安全

sudo pip3 install pandas

或者經過conda 來安裝pandas:網絡

conda install pandas

目前(2018年2月)pandas的最新版本是v0.22.0(發佈時間:2017年12月29日)。數據結構

我已經將本文的源碼和測試數據放到Github上: pandas_tutorial ,讀者能夠前往獲取。

另外,pandas經常和NumPy一塊兒使用,本文中的源碼中也會用到NumPy

建議讀者先對NumPy有必定的熟悉再來學習pandas,我以前也寫過一個NumPy的基礎教程,參見這裏:Python 機器學習庫 NumPy 教程

核心數據結構

pandas最核心的就是Series和DataFrame兩個數據結構。

這兩種類型的數據結構對好比下:

名稱 維度 說明
Series 1維 帶有標籤的同構類型數組
DataFrame 2維 表格結構,帶有標籤,大小可變,且能夠包含異構的數據列

DataFrame能夠看作是Series的容器,即:一個DataFrame中能夠包含若干個Series。

注:在0.20.0版本以前,還有一個三維的數據結構,名稱爲Panel。這也是pandas庫取名的緣由:pan(el)-da(ta)-s。但這種數據結構因爲不多被使用到,所以已經被廢棄了。

Series

因爲Series是一維結構的數據,咱們能夠直接經過數組來建立這種數據,像這樣:

# data_structure.py

import pandas **as** pd

import numpy **as** np

series1= pd.Series([1, 2, 3, 4])

print("series1:\n{}\n".format(series1))

這段代碼輸出以下:

series1:

0    1

1    2

2    3

3    4

dtype: int64

這段輸出說明以下:

· 輸出的最後一行是Series中數據的類型,這裏的數據都是int64類型的。

· 數據在第二列輸出,第一列是數據的索引,在pandas中稱之爲Index。

咱們能夠分別打印出Series中的數據和索引:

# data_structure.py

print("series1.values: {}\n".format(series1.values))

print("series1.index: {}\n".format(series1.index))

這兩行代碼輸出以下:

series1.values: [1 2 3 4]

series1.index: RangeIndex(start=0, stop=4, step=1)

若是不指定(像上面這樣),索引是[1, N-1]的形式。不過咱們也能夠在建立Series的時候指定索引。索引未必必定須要是整數,能夠是任何類型的數據,例如字符串。例如咱們以七個字母來映射七個音符。索引的目的是能夠經過它來獲取對應的數據,例以下面這樣:

# data_structure.py

series2= pd.Series([1, 2, 3, 4, 5, 6, 7],

    index=["C", "D", "E", "F", "G", "A", "B"])

print("series2:\n{}\n".format(series2))

print("E is {}\n".format(series2["E"]))

這段代碼輸出以下:

series2:

C    1

D    2

E    3

F    4

G    5

A    6

B    7

dtype: int64

E **is** 3

DataFrame

下面咱們來看一下DataFrame的建立。咱們能夠經過NumPy的接口來建立一個4×4的矩陣,以此來建立一個DataFrame,像這樣:

# data_structure.py

df1= pd.DataFrame(np.arange(16).reshape(4,4))

print("df1:\n{}\n".format(df1))

這段代碼輸出以下:

df1:

    0 1 2 3

0 0 1 2 3

1 4 5 6 7

2 8 9  10  11

3  12  13  14  15

從這個輸出咱們能夠看到,默認的索引和列名都是[0, N-1]的形式。

咱們能夠在建立DataFrame的時候指定列名和索引,像這樣:

# data_structure.py

df2= pd.DataFrame(np.arange(16).reshape(4,4),

    columns=["column1", "column2", "column3", "column4"],

    index=["a", "b", "c", "d"])

print("df2:\n{}\n".format(df2))

這段代碼輸出以下:

df2:

 column1  column2  column3  column4

a        0        1        2        3

b        4        5        6        7

c        8        9 10 11

d 12 13 14 15

咱們也能夠直接指定列數據來建立DataFrame:

# data_structure.py

df3= pd.DataFrame({"note": ["C", "D", "E", "F", "G", "A", "B"],

    "weekday": ["Mon", "Tue", "Wed", "Thu", "Fri", "Sat", "Sun"]})

print("df3:\n{}\n".format(df3))

這段代碼輸出以下:

df3:

  note weekday

0    C Mon

1    D Tue

2    E Wed

3    F Thu

4    G Fri

5    A Sat

6    B Sun

請注意:

· DataFrame的不一樣列能夠是不一樣的數據類型

· 若是以Series數組來建立DataFrame,每一個Series將成爲一行,而不是一列

例如:

# data_structure.py

noteSeries= pd.Series(["C", "D", "E", "F", "G", "A", "B"],

    index=[1, 2, 3, 4, 5, 6, 7])

weekdaySeries= pd.Series(["Mon", "Tue", "Wed", "Thu", "Fri", "Sat", "Sun"],

    index=[1, 2, 3, 4, 5, 6, 7])

df4= pd.DataFrame([noteSeries, weekdaySeries])

print("df4:\n{}\n".format(df4))

df4的輸出以下:

df4:

 1    2    3    4    5    6    7

0    C    D    E    F    G    A    B

1  Mon  Tue  Wed  Thu  Fri  Sat  Sun

咱們能夠經過下面的形式給DataFrame添加或者刪除列數據:

# data_structure.py

df3["No."]= pd.Series([1, 2, 3, 4, 5, 6, 7])

print("df3:\n{}\n".format(df3))

del df3["weekday"]

print("df3:\n{}\n".format(df3))

這段代碼輸出以下:

df3:

  note weekday  No.

0    C Mon    1

1    D Tue    2

2    E Wed    3

3    F Thu    4

4    G Fri    5

5    A Sat    6

6    B Sun    7

df3:

  note  No.

0    C    1

1    D    2

2    E    3

3    F    4

4    G    5

5    A    6

6    B    7

Index對象與數據訪問

pandas的Index對象包含了描述軸的元數據信息。當建立Series或者DataFrame的時候,標籤的數組或者序列會被轉換成Index。能夠經過下面的方式獲取到DataFrame的列和行的Index對象:

# data_structure.py

print("df3.columns\n{}\n".format(df3.columns))

print("df3.index\n{}\n".format(df3.index))

這兩行代碼輸出以下:

df3.columns

Index(['note', 'No.'], dtype='object')

df3.index

RangeIndex(start=0, stop=7, step=1)

請注意:

· Index並不是集合,所以其中能夠包含重複的數據

· Index對象的值是不能夠改變,所以能夠經過它安全的訪問數據

DataFrame提供了下面兩個操做符來訪問其中的數據:

· loc:經過行和列的索引來訪問數據

· iloc:經過行和列的下標來訪問數據

例如這樣:

# data_structure.py

print("Note C, D is:\n{}\n".format(df3.loc[[0, 1], "note"]))

print("Note C, D is:\n{}\n".format(df3.iloc[[0, 1], 0]))

第一行代碼訪問了行索引爲0和1,列索引爲「note」的元素。第二行代碼訪問了行下標爲0和1(對於df3來講,行索引和行下標恰好是同樣的,因此這裏都是0和1,但它們倒是不一樣的含義),列下標爲0的元素。

這兩行代碼輸出以下:

Note C, D **is**:

0    C

1    D

Name: note, dtype: **object**

Note C, D **is**:

0    C

1    D

Name: note, dtype: **object**

文件操做

pandas庫提供了一系列的read_函數來讀取各類格式的文件,它們以下所示:

  • read_csv

  • read_table

  • read_fwf

  • read_clipboard

  • read_excel

  • read_hdf

  • read_html

  • read_json

  • read_msgpack

  • read_pickle

  • read_sas

  • read_sql

  • read_stata

  • read_feather

讀取Excel文件

注:要讀取Excel文件,還須要安裝另一個庫:xlrd

經過pip能夠這樣完成安裝:

sudo pip3 install xlrd

安裝完以後能夠經過pip查看這個庫的信息:

$  pip3 show xlrd

Name: xlrd

Version: 1.1.0

Summary: Library **for** developers **to** extract data from Microsoft Excel (tm) spreadsheet files

Home-page: http:*//www.python-excel.org/*

Author: John Machin

Author-email: sjmachin@lexicon.net

License: BSD

Location: /Library/Frameworks/Python.framework/Versions/3.6/lib/python3.6/site-packages

Requires:

接下來咱們看一個讀取Excel的簡單的例子:

# file_operation.py

import pandas **as** pd

import numpy **as** np

df1= pd.read_excel("data/test.xlsx")

print("df1:\n{}\n".format(df1))

這個Excel的內容以下:

df1:

 C  Mon

0  D  Tue

1  E  Wed

2  F  Thu

3  G  Fri

4  A  Sat

5  B  Sun

注:本文的代碼和數據文件能夠經過文章開頭提到的Github倉庫獲取。

讀取CSV文件

下面,咱們再來看讀取CSV文件的例子。

第一個CSV文件內容以下:

$ cat test1.csv 

C,Mon

D,Tue

E,Wed

F,Thu

G,Fri

A,Sat

讀取的方式也很簡單:

# file_operation.py

df2= pd.read_csv("data/test1.csv")

print("df2:\n{}\n".format(df2))

咱們再來看第2個例子,這個文件的內容以下:

$ cat test2.csv 

C|Mon

D|Tue

E|Wed

F|Thu

G|Fri

A|Sat

嚴格的來講,這並非一個CSV文件了,由於它的數據並非經過逗號分隔的。在這種狀況下,咱們能夠經過指定分隔符的方式來讀取這個文件,像這樣:

# file_operation.py

df3= pd.read_csv("data/test2.csv", sep="|")

print("df3:\n{}\n".format(df3))

實際上,read_csv支持很是多的參數用來調整讀取的參數,以下表所示:

參數 說明
path 文件路徑
sep或者delimiterFrame 字段分隔符
header 列名的行數,默認是0(第一行)
index_col 列號或名稱用做結果中的行索引
names 結果的列名稱列表
skiprows 從起始位置跳過的行數
na_values 代替NA的值序列
comment 以行結尾分隔註釋的字符
parse_dates 嘗試將數據解析爲datetime。默認爲False
keep_date_col 若是將列鏈接到解析日期,保留鏈接的列。默認爲False。
converters 列的轉換器
dayfirst 當解析能夠形成歧義的日期時,之內部形式存儲。默認爲False
data_parser 用來解析日期的函數
nrows 從文件開始讀取的行數
參數 說明
iterator 返回一個TextParser對象,用於讀取部份內容
chunksize 指定讀取塊的大小
skip_footer 文件末尾須要忽略的行數
verbose 輸出各類解析輸出的信息
encoding 文件編碼
skip_footer 文件編碼
squeeze 若是解析的數據只包含一列,則返回一個Series
thousands 千數量的分隔符

詳細的read_csv函數說明請參見這裏:pandas.read_csv

處理無效值

現實世界並不是完美,咱們讀取到的數據經常會帶有一些無效值。若是沒有處理好這些無效值,將對程序形成很大的干擾。
對待無效值,主要有兩種處理方法:直接忽略這些無效值;或者將無效值替換成有效值。
下面我先建立一個包含無效值的數據結構。而後經過pandas.isna函數來確認哪些值是無效的:

# process_na.py
 
import pandas as pd
import numpy as np
 
df = pd.DataFrame([[1.0, np.nan, 3.0, 4.0],
                  [5.0, np.nan, np.nan, 8.0],
                  [9.0, np.nan, np.nan, 12.0],
                  [13.0, np.nan, 15.0, 16.0]])
 
print("df:\n{}\n".format(df));
print("df:\n{}\n".format(pd.isna(df)));****

這段代碼輸出以下:

df:
      0   1     2     3
0   1.0 NaN   3.0   4.0
1   5.0 NaN   NaN   8.0
2   9.0 NaN   NaN  12.0
3  13.0 NaN  15.0  16.0
 
df:
       0     1      2      3
0  False  True  False  False
1  False  True   True  False
2  False  True   True  False
3  False  True  False  False

忽略無效值
咱們能夠經過pandas.DataFrame.dropna函數拋棄無效值:

# process_na.py
 
print("df.dropna():\n{}\n".format(df.dropna()));

注:dropna默認不會改變原先的數據結構,而是返回了一個新的數據結構。若是想要直接更改數據自己,能夠在調用這個函數的時候傳遞參數 inplace = True。
對於原先的結構,當無效值所有被拋棄以後,將再也不是一個有效的DataFrame,所以這行代碼輸出以下:

df.dropna():
Empty DataFrame
Columns: [0, 1, 2, 3]
Index: []

咱們也能夠選擇拋棄整列都是無效值的那一列:

# process_na.py
 
print("df.dropna(axis=1, how='all'):\n{}\n".format(df.dropna(axis=1, how='all')));

注:axis=1表示列的軸。how能夠取值’any’或者’all’,默認是前者。
這行代碼輸出以下:

df.dropna(axis=1, how='all'):
      0     2     3
0   1.0   3.0   4.0
1   5.0   NaN   8.0
2   9.0   NaN  12.0
3  13.0  15.0  16.0

替換無效值
咱們也能夠經過fillna函數將無效值替換成爲有效值。像這樣:

# process_na.py
 
print("df.fillna(1):\n{}\n".format(df.fillna(1)));

這段代碼輸出以下:

df.fillna(1):
      0    1     2     3
0   1.0  1.0   3.0   4.0
1   5.0  1.0   1.0   8.0
2   9.0  1.0   1.0  12.0
3  13.0  1.0  15.0  16.0

將無效值所有替換成一樣的數據可能意義不大,所以咱們能夠指定不一樣的數據來進行填充。爲了便於操做,在填充以前,咱們能夠先經過rename方法修改行和列的名稱:

# process_na.py
 
df.rename(index={0: 'index1', 1: 'index2', 2: 'index3', 3: 'index4'},
          columns={0: 'col1', 1: 'col2', 2: 'col3', 3: 'col4'},
          inplace=True);
df.fillna(value={'col2': 2}, inplace=True)
df.fillna(value={'col3': 7}, inplace=True)
print("df:\n{}\n".format(df));

這段代碼輸出以下:

df:
        col1  col2  col3  col4
index1   1.0   2.0   3.0   4.0
index2   5.0   2.0   7.0   8.0
index3   9.0   2.0   7.0  12.0
index4  13.0   2.0  15.0  16.0

處理字符串
數據中經常牽涉到字符串的處理,接下來咱們就看看pandas對於字符串操做。
Series的str字段包含了一系列的函數用來處理字符串。而且,這些函數會自動處理無效值。
下面是一些實例,在第一組數據中,咱們故意設置了一些包含空格字符串:

# process_string.py
 
import pandas as pd
 
s1 = pd.Series([' 1', '2 ', ' 3 ', '4', '5']);
print("s1.str.rstrip():\n{}\n".format(s1.str.lstrip()))
print("s1.str.strip():\n{}\n".format(s1.str.strip()))
print("s1.str.isdigit():\n{}\n".format(s1.str.isdigit()))

在這個實例中咱們看到了對於字符串strip的處理以及判斷字符串自己是不是數字,這段代碼輸出以下:

s1.str.rstrip():
0     1
1    2 
2    3 
3     4
4     5
dtype: object
 
s1.str.strip():
0    1
1    2
2    3
3    4
4    5
dtype: object
 
s1.str.isdigit():
0    False
1    False
2    False
3     True
4     True
dtype: bool

下面是另一些示例,展現了對於字符串大寫,小寫以及字符串長度的處理:

# process_string.py
 
s2 = pd.Series(['Stairway to Heaven', 'Eruption', 'Freebird',
                    'Comfortably Numb', 'All Along the Watchtower'])
print("s2.str.lower():\n{}\n".format(s2.str.lower()))
print("s2.str.upper():\n{}\n".format(s2.str.upper()))
print("s2.str.len():\n{}\n".format(s2.str.len()))

該段代碼輸出以下:

s2.str.lower():
0          stairway to heaven
1                    eruption
2                    freebird
3            comfortably numb
4    all along the watchtower
dtype: object
 
s2.str.upper():
0          STAIRWAY TO HEAVEN
1                    ERUPTION
2                    FREEBIRD
3            COMFORTABLY NUMB
4    ALL ALONG THE WATCHTOWER
dtype: object
 
s2.str.len():
0    18
1     8
2     8
3    16
4    24
dtype: int64

結束語

本文是pandas的入門教程,所以咱們只介紹了最基本的操做。對於
MultiIndex/Advanced Indexing
Merge, join, concatenate
Computational tools
之類的高級功能,之後有機會咱們再來一塊兒學習。
讀者也能夠根據下面的連接獲取更多的知識。

更多Python技術文章請關注2019年,Python技術持續更新(附教程)

相關文章
相關標籤/搜索