pandas庫使用

1、pandas簡單介紹正則表達式

一、pandas是一個強大的Python數據分析的工具包。
二、pandas是基於NumPy構建的。算法

三、pandas的主要功能數據庫

  • 具有對其功能的數據結構DataFrame、Series
  • 集成時間序列功能
  • 提供豐富的數學運算和操做
  • 靈活處理缺失數據


四、安裝方法:pip install pandas
五、引用方法:import pandas as pdjson

2、Series數組

Series是一種相似於一維數組的對象,由一組數據和一組與之相關的數據標籤(索引)組成。數據結構

建立方式:
    pd.Series([4,7,-5,3]) 
    pd.Series([4,7,-5,3],index=['a','b','c','d'])               
    pd.Series({'a':1, 'b':2})             
    pd.Series(0, index=['a','b','c','d’])

3、Series特性app

Series支持數組的特性:dom

  • 從ndarray建立Series:Series(arr)
  • 與標量運算:sr*2
  • 兩個Series運算:sr1+sr2
  • 索引:sr[0], sr[[1,2,4]]
  • 切片:sr[0:2](切片依然是視圖形式)
  • 通用函數:np.abs(sr)
  • 布爾值過濾:sr[sr>0]

統計函數:函數

  • mean() #求平均數
  • sum() #求和
  • cumsum() #累加

Series支持字典的特性(標籤):工具

  • 從字典建立Series:Series(dic),
  • in運算:’a’ in sr、for x in sr
  • 鍵索引:sr['a'], sr[['a', 'b', 'd']]
  • 鍵切片:sr['a':'c']
  • 其餘函數:get('a', default=0)等
In [12]: s = pd.Series(0,index=['a','b','c','d'])

In [13]: s.a
Out[13]: 0

In [14]: v = pd.Series({'a':1,'b':2})

In [15]: v.a
Out[15]: 1

In [16]: v.b
Out[16]: 2

In [17]: v[0]
Out[17]: 1

In [18]: s*2
Out[18]:
a    0
b    0
c    0
d    0
dtype: int64

In [19]: v*2
Out[19]:
a    2
b    4
dtype: int64

4、整數索引

例:

  • sr = np.Series(np.arange(4.))
  • sr[-1]

若是索引是整數類型,則根據整數進行數據操做時老是面向標籤的。

  • loc屬性 以標籤解釋
  • iloc屬性 如下標解釋

5、pandas:Series數據對齊

pandas在運算時,會按索引進行對齊而後計算。若是存在不一樣的索引,則結果的索引是兩個操做數索引的並集。

    例:
    sr1 = pd.Series([12,23,34], index=['c','a','d'])
    sr2 = pd.Series([11,20,10], index=['d','c','a',])
    sr1+sr2
    sr3 = pd.Series([11,20,10,14], index=['d','c','a','b'])
    sr1+sr3

    如何在兩個Series對象相加時將缺失值設爲0?
    sr1.add(sr2, fill_value=0)
    靈活的算術方法:add, sub, div, mul

6、pandas:Series缺失數據

一、缺失數據:使用NaN(Not a Number)來表示缺失數據。其值等於np.nan。內置的None值也會被當作NaN處理
二、處理缺失數據的相關方法:

  • dropna() 過濾掉值爲NaN的行
  • fillna() 填充缺失數據
  • isnull() 返回布爾數組,缺失值對應爲True
  • notnull() 返回布爾數組,缺失值對應爲False

三、過濾缺失數據:sr.dropna() 或 sr[data.notnull()]
四、填充缺失數據:fillna(0)

7、pandas:DataFrame

DataFrame是一個表格型的數據結構,含有一組有序的列。
DataFrame能夠被看作是由Series組成的字典,而且共用一個索引。

建立方式:

  • pd.DataFrame({'one':[1,2,3,4],'two':[4,3,2,1]})
  • pd.DataFrame({'one':pd.Series([1,2,3],index=['a','b','c']), 'two':pd.Series([1,2,3,4],index=['b','a','c','d'])})
  • ……

csv文件讀取與寫入:

  • df.read_csv('E:\算法\day110 Numpy、Pandas模塊\601318.csv')
  • df.to_csv()

8、pandas:DataFrame查看數據

查看數據經常使用屬性及方法:
        index                    獲取索引
        T                        轉置
        columns                    獲取列索引
        values                    獲取值數組
      describe() 獲取快速統計

    DataFrame各列name屬性:列名
    rename(columns={})

9、pandas:DataFrame索引和切片

一、DataFrame有行索引和列索引。
二、DataFrame一樣能夠經過標籤和位置兩種方法進行索引和切片。

三、DataFrame使用索引切片:

  • 方法1:兩個中括號,先取列再取行。 df['A'][0]
  • 方法2(推薦):使用loc/iloc屬性,一箇中括號,逗號隔開,先取行再取列。

loc屬性:解釋爲標籤
iloc屬性:解釋爲下標
向DataFrame對象中寫入值時只使用方法2
行/列索引部分能夠是常規索引、切片、布爾值索引、花式索引任意搭配。(注意:兩部分都是花式索引時結果可能與預料的不一樣)

經過標籤獲取:
    df['A']
    df[['A', 'B']]
    df['A'][0]
    df[0:10][['A', 'C']]
    df.loc[:,['A','B']]  #行是全部的行,列取是A和B的
    df.loc[:,'A':'C']
    df.loc[0,'A']
    df.loc[0:10,['A','C']]
    
經過位置獲取:
    df.iloc[3]
    df.iloc[3,3]
    df.iloc[0:3,4:6]
    df.iloc[1:5,:]
    df.iloc[[1,2,4],[0,3]]、
    
經過布爾值過濾:
  df[df['A']>0]
  df[df['A'].isin([1,3,5])]
  df[df<0] = 0

10、pandas:DataFrame數據對齊與缺失數據

DataFrame對象在運算時,一樣會進行數據對齊,行索引與列索引分別對齊。
結果的行索引與列索引分別爲兩個操做數的行索引與列索引的並集。

DataFrame處理缺失數據的相關方法:

  • dropna(axis=0,where=‘any’,…) 過濾掉值爲NaN的行
  • fillna() 填充缺失數據
  • isnull() 返回布爾數組,缺失值對應爲True
  • notnull() 返回布爾數組,缺失值對應爲False

11、pandas:其餘經常使用方法

- mean        #求平均值
- sum         #求和
- sort_index  #按行或列索引排序
- sort_values  #按值排序
- apply(func,axis=0)  #axis=0指的是逐行,axis=1指的是逐列。
        df.apply(lamada x:x.mean())  #按列求平均
        df.apply(lamada x:x['high']+x["low"])/2,axis=1)  #按列求平均(最高價和最低價的平均)
        df.apply(lamada x:x['high']+x["low"])/2,axis=1)  #按列求平均(最高價和最低價的平均)
- applymap(func) #將函數應用在DataFrame各個元素上
- map(func) #將函數應用在Series各個元素上

12、pandas:時間對象處理

時間序列類型:
    時間戳:特定時刻
    固定時期:如2017年7月
    時間間隔:起始時間-結束時間
Python標準庫:datetime
    datetime.datetime.timedelta  # 表示 時間間隔
    dt.strftime() #f:format吧時間對象格式化成字符串
    strptime()  #吧字符串解析成時間對象p:parse
    靈活處理時間對象:dateutil包
        dateutil.parser.parse('2018/1/29') 
    成組處理時間對象:pandas
        pd.to_datetime(['2001-01-01', '2002-02-02'])

產生時間對象數組:date_range

  • start 開始時間
  • end 結束時間
  • periods 時間長度
  • freq 時間頻率,默認爲'D',可選H(our),W(eek),B(usiness),S(emi-)M(onth),(min)T(es), S(econd), A(year),…

十3、pandas:時間序列

一、時間序列就是以時間對象爲索引的Series或DataFrame。

二、datetime對象做爲索引時是存儲在DatetimeIndex對象中的。

三、時間序列特殊功能:

  • 傳入「年」或「年月」做爲切片方式
  • 傳入日期範圍做爲切片方式
  • 豐富的函數支持:resample(), strftime(), ……
  • 批量轉換爲datetime對象:to_pydatetime()

十4、pandas:從文件讀取

  • 讀取文件:從文件名、URL、文件對象中加載數據
  • read_csv 默認分隔符爲csv
  • read_table 默認分隔符爲\t
  • read_excel 讀取excel文件

二、讀取文件函數主要參數:

  • sep 指定分隔符,可用正則表達式如'\s+'
  • header=None 指定文件無列名
  • name 指定列名
  • index_col 指定某列做爲索引
  • skip_row 指定跳過某些行
  • na_values 指定某些字符串表示缺失值
  • parse_dates 指定某些列是否被解析爲日期,布爾值或列表
df = pd.read_csv("601318.csv")   #默認以,爲分隔符
    - pd.read_csv("601318.csv",sep='\s+')  #匹配空格,支持正則表達式
    - pd.read_table("601318.csv",sep=',')  #和df = pd.read_csv("601318.csv")   同樣
    - pd.read_excle("601318.xlsx")  #讀Excel文件
    sep:指定分隔符
    header = NOne,就會吧默認的表名去除 了
    df.rename(column={0:'a',1:"b"})  #修改列名
    pd.read_csv(index_col=0)  #第0列
    若是想讓時間成爲索引
        pd.read_csv(index_col='date')  #時間列
    pd.read_csv(index_col='date',parse_datas=True)  #時間列
    parse_datas轉換爲時間對象,設爲true是吧全部能轉的都轉
    pd.read_csv(index_col='date',parse_datas=['date'])   #知識吧date的那一列轉換成時間對象
        
    na_values=['None']  #吧表裏面爲None的轉換成NaN,是吧字符串轉換成缺失值
    na_rep()  #是吧缺失值nan轉換成字符串

    cols #指定輸出的列,傳入列表

十5、pandas:寫入到文件

一、寫入到文件:

  • to_csv

二、寫入文件函數的主要參數:

  • sep
  • na_rep 指定缺失值轉換的字符串,默認爲空字符串
  • header=False 不輸出列名一行
  • index=False 不輸出行索引一列
  • cols 指定輸出的列,傳入列表

三、其餘文件類型:json, XML, HTML, 數據庫
四、pandas轉換爲二進制文件格式(pickle):

  • save
  • load

十6、pandas:數據分組與聚合

分組
   df = pd.DateFrame({
       'data1':np.random.uniform(10,20,5),
       'data2':np.random.uniform(-10,10,5),
       'key1':list("sbbsb")
       'key2':
   })
   df.groupby('key1').mean()  #作平均
   df.groupby('key1').sum()  #作平均
   df.groupby(['key1','key2']).mean()  #作平均  支持分層索引,按多列分組
   
   df.groupby(len).mean()  #傳一個函數的時候,x是每個行的索引
   df.groupby(lambda x:len(x)).mean()  #傳一個函數的時候,x是每個行的索引
   
   df.groupby.groups()  #取得多有的組
   df.groupby.get_group()  #取得一個組
   
聚合
    df.groupby('key1').max()[['data1','data2']]   #去掉key2的data1,data2,花式索引
    df.groupby('key1').max()[['data1','data2']]- df.groupby('key1').min()[['data1','data2']]  #去掉key2
   
   df.groupby('key1').agg(lamada x:x.max()-x.min())
   
   既想看最大也可看最小
    df.groupby('key1').agg([np.max,np.min])
    不一樣的列不同的聚合
    df.groupby('key1').agg({'data1':'min','data2':'max'})  #鍵是列名,值是
    
    a=_219  #219行的代碼
    a.resample('3D'),mean()  #3D 3天,3M就是三週
    
數據合併
    - 數據拼接
        df = df.copy()
        pd.concat([df,df2,df3],ignore_index=True)  #不用以前的索引,
        pd.concat([df,df2,df3],axis=1)  #
        pd.concat([df,df2,df3],keys=['a','b','c'])  #不用以前的索引,
        df2.appeng(df3)
    - 數據鏈接
    若是不指定on,默認是行索引進行join
    pd.merge(df,df3,on='key1')
    pd.merge(df,df3,on='['key1','key2'])
相關文章
相關標籤/搜索