1、pandas簡單介紹正則表達式
一、pandas是一個強大的Python數據分析的工具包。
二、pandas是基於NumPy構建的。算法
三、pandas的主要功能數據庫
四、安裝方法:pip install pandas
五、引用方法:import pandas as pdjson
2、Series數組
Series是一種相似於一維數組的對象,由一組數據和一組與之相關的數據標籤(索引)組成。數據結構
建立方式: pd.Series([4,7,-5,3]) pd.Series([4,7,-5,3],index=['a','b','c','d']) pd.Series({'a':1, 'b':2}) pd.Series(0, index=['a','b','c','d’])
3、Series特性app
Series支持數組的特性:dom
統計函數:函數
Series支持字典的特性(標籤):工具
In [12]: s = pd.Series(0,index=['a','b','c','d']) In [13]: s.a Out[13]: 0 In [14]: v = pd.Series({'a':1,'b':2}) In [15]: v.a Out[15]: 1 In [16]: v.b Out[16]: 2 In [17]: v[0] Out[17]: 1 In [18]: s*2 Out[18]: a 0 b 0 c 0 d 0 dtype: int64 In [19]: v*2 Out[19]: a 2 b 4 dtype: int64
4、整數索引
例:
若是索引是整數類型,則根據整數進行數據操做時老是面向標籤的。
5、pandas:Series數據對齊
pandas在運算時,會按索引進行對齊而後計算。若是存在不一樣的索引,則結果的索引是兩個操做數索引的並集。 例: sr1 = pd.Series([12,23,34], index=['c','a','d']) sr2 = pd.Series([11,20,10], index=['d','c','a',]) sr1+sr2 sr3 = pd.Series([11,20,10,14], index=['d','c','a','b']) sr1+sr3 如何在兩個Series對象相加時將缺失值設爲0? sr1.add(sr2, fill_value=0) 靈活的算術方法:add, sub, div, mul
6、pandas:Series缺失數據
一、缺失數據:使用NaN(Not a Number)來表示缺失數據。其值等於np.nan。內置的None值也會被當作NaN處理。
二、處理缺失數據的相關方法:
三、過濾缺失數據:sr.dropna() 或 sr[data.notnull()]
四、填充缺失數據:fillna(0)
7、pandas:DataFrame
DataFrame是一個表格型的數據結構,含有一組有序的列。
DataFrame能夠被看作是由Series組成的字典,而且共用一個索引。
建立方式:
csv文件讀取與寫入:
8、pandas:DataFrame查看數據
查看數據經常使用屬性及方法:
index 獲取索引
T 轉置
columns 獲取列索引
values 獲取值數組
describe() 獲取快速統計
DataFrame各列name屬性:列名
rename(columns={})
9、pandas:DataFrame索引和切片
一、DataFrame有行索引和列索引。
二、DataFrame一樣能夠經過標籤和位置兩種方法進行索引和切片。
三、DataFrame使用索引切片:
loc屬性:解釋爲標籤
iloc屬性:解釋爲下標
向DataFrame對象中寫入值時只使用方法2
行/列索引部分能夠是常規索引、切片、布爾值索引、花式索引任意搭配。(注意:兩部分都是花式索引時結果可能與預料的不一樣)
經過標籤獲取: df['A'] df[['A', 'B']] df['A'][0] df[0:10][['A', 'C']] df.loc[:,['A','B']] #行是全部的行,列取是A和B的 df.loc[:,'A':'C'] df.loc[0,'A'] df.loc[0:10,['A','C']] 經過位置獲取: df.iloc[3] df.iloc[3,3] df.iloc[0:3,4:6] df.iloc[1:5,:] df.iloc[[1,2,4],[0,3]]、 經過布爾值過濾: df[df['A']>0] df[df['A'].isin([1,3,5])] df[df<0] = 0
10、pandas:DataFrame數據對齊與缺失數據
DataFrame對象在運算時,一樣會進行數據對齊,行索引與列索引分別對齊。
結果的行索引與列索引分別爲兩個操做數的行索引與列索引的並集。
DataFrame處理缺失數據的相關方法:
11、pandas:其餘經常使用方法
- mean #求平均值 - sum #求和 - sort_index #按行或列索引排序 - sort_values #按值排序 - apply(func,axis=0) #axis=0指的是逐行,axis=1指的是逐列。 df.apply(lamada x:x.mean()) #按列求平均 df.apply(lamada x:x['high']+x["low"])/2,axis=1) #按列求平均(最高價和最低價的平均) df.apply(lamada x:x['high']+x["low"])/2,axis=1) #按列求平均(最高價和最低價的平均) - applymap(func) #將函數應用在DataFrame各個元素上 - map(func) #將函數應用在Series各個元素上
12、pandas:時間對象處理
時間序列類型: 時間戳:特定時刻 固定時期:如2017年7月 時間間隔:起始時間-結束時間 Python標準庫:datetime datetime.datetime.timedelta # 表示 時間間隔 dt.strftime() #f:format吧時間對象格式化成字符串 strptime() #吧字符串解析成時間對象p:parse 靈活處理時間對象:dateutil包 dateutil.parser.parse('2018/1/29') 成組處理時間對象:pandas pd.to_datetime(['2001-01-01', '2002-02-02'])
產生時間對象數組:date_range
十3、pandas:時間序列
一、時間序列就是以時間對象爲索引的Series或DataFrame。
二、datetime對象做爲索引時是存儲在DatetimeIndex對象中的。
三、時間序列特殊功能:
十4、pandas:從文件讀取
二、讀取文件函數主要參數:
df = pd.read_csv("601318.csv") #默認以,爲分隔符 - pd.read_csv("601318.csv",sep='\s+') #匹配空格,支持正則表達式 - pd.read_table("601318.csv",sep=',') #和df = pd.read_csv("601318.csv") 同樣 - pd.read_excle("601318.xlsx") #讀Excel文件 sep:指定分隔符 header = NOne,就會吧默認的表名去除 了 df.rename(column={0:'a',1:"b"}) #修改列名 pd.read_csv(index_col=0) #第0列 若是想讓時間成爲索引 pd.read_csv(index_col='date') #時間列 pd.read_csv(index_col='date',parse_datas=True) #時間列 parse_datas轉換爲時間對象,設爲true是吧全部能轉的都轉 pd.read_csv(index_col='date',parse_datas=['date']) #知識吧date的那一列轉換成時間對象 na_values=['None'] #吧表裏面爲None的轉換成NaN,是吧字符串轉換成缺失值 na_rep() #是吧缺失值nan轉換成字符串 cols #指定輸出的列,傳入列表
十5、pandas:寫入到文件
一、寫入到文件:
二、寫入文件函數的主要參數:
三、其餘文件類型:json, XML, HTML, 數據庫
四、pandas轉換爲二進制文件格式(pickle):
十6、pandas:數據分組與聚合
分組 df = pd.DateFrame({ 'data1':np.random.uniform(10,20,5), 'data2':np.random.uniform(-10,10,5), 'key1':list("sbbsb") 'key2': }) df.groupby('key1').mean() #作平均 df.groupby('key1').sum() #作平均 df.groupby(['key1','key2']).mean() #作平均 支持分層索引,按多列分組 df.groupby(len).mean() #傳一個函數的時候,x是每個行的索引 df.groupby(lambda x:len(x)).mean() #傳一個函數的時候,x是每個行的索引 df.groupby.groups() #取得多有的組 df.groupby.get_group() #取得一個組 聚合 df.groupby('key1').max()[['data1','data2']] #去掉key2的data1,data2,花式索引 df.groupby('key1').max()[['data1','data2']]- df.groupby('key1').min()[['data1','data2']] #去掉key2 df.groupby('key1').agg(lamada x:x.max()-x.min()) 既想看最大也可看最小 df.groupby('key1').agg([np.max,np.min]) 不一樣的列不同的聚合 df.groupby('key1').agg({'data1':'min','data2':'max'}) #鍵是列名,值是 a=_219 #219行的代碼 a.resample('3D'),mean() #3D 3天,3M就是三週 數據合併 - 數據拼接 df = df.copy() pd.concat([df,df2,df3],ignore_index=True) #不用以前的索引, pd.concat([df,df2,df3],axis=1) #列 pd.concat([df,df2,df3],keys=['a','b','c']) #不用以前的索引, df2.appeng(df3) - 數據鏈接 若是不指定on,默認是行索引進行join pd.merge(df,df3,on='key1') pd.merge(df,df3,on='['key1','key2'])