pandas操做速查表

準備工做

import numpy as np
import pandas as pd

 

倒入文件或建立一個數據表html

df = pd.DataFrame(pd.read_csv('name.csv',header=1))
df = pd.DataFrame(pd.read_excel('name.xlsx'))
pd.read_table(filename)# 從限定分隔符的文本文件導入數據
pd.read_excel(filename)# 從Excel文件導入數據
pd.read_sql(query, connection_object)# 從SQL表/庫導入數據
pd.read_json(json_string)# 從JSON格式的字符串導入數據
pd.read_html(url)# 解析URL、字符串或者HTML文件,抽取其中的tables表格
pd.read_clipboard()# 從你的粘貼板獲取內容,並傳給read_table()
pd.DataFrame(dict)# 從字典對象導入數據,Key是列名,Value是數據
倒入各類格式的文件操做
# 建立數據表,下面兩個數據表是如下全部操做的數據支持
# pd.DataFrame(np.random.rand(20,5))# 建立20行5列的隨機數組成的DataFrame對象
df = pd.DataFrame({"id":[1001,1002,1003,1004,1005,1006],
                    "date":pd.date_range('20130102', periods=6),
                    "city":['Beijing ', 'SH', ' guangzhou ', 'Shenzhen', 'shanghai', 'BEIJING '],
                    "age":[23,44,54,32,34,32],
                    "category":['100-A','100-B','110-A','110-C','210-A','130-F'],
                    "price":[1200,np.nan,2133,5433,np.nan,4432]},
                    columns =['id','date','city','category','age','price'])

df1=pd.DataFrame({"id":[1001,1002,1003,1004,1005,1006,1007,1008],
                  "gender":['male','female','male','female','male','female','male','female'],
                  "pay":['Y','N','Y','Y','N','Y','N','Y',],
                  "m-point":[10,12,20,40,40,40,30,20]})

 

1、查看數據表信息

  包含操做:python

    • 查看維度
    • 查看數據表基本信息
    • 查看每一列/指定列數據格式
    • 查看數據表每一單元格是否爲空值
    • 查看指定列值
    • 查看數據表
    • 查看錶頭
    • 查看前/後n行數據
    • 查看數值型列的彙總統計
    • 查看DataFrame對象中每一列的惟一值和計數
print(df.shape) # 查看維度、行數和列數(x*y)
print(df.info())# 查看數據表基本信息(維度、列名稱、數據格式、所佔空間等)
print(df.dtypes)# 查看每一列數據的格式
print(df['price'].dtype) # 查看指定列的數據格式
print(df.isnull()) # 查看數據表每一單元格是否爲空值
print(df['age'].unique()) # 查看指定列的值(去重)
print(df.values)# 查看數據表
print(df.columns)# 查看錶頭
print(df.head(3)) # 查看前x行數據,括號內爲空時默認爲10
print(df.tail(3)) # 查看後x行數據,括號內爲空時默認爲10
print(df.describe()) # 查看數值型列的彙總統計
print(df.apply(pd.Series.value_counts)) # 查看DataFrame對象中每一列的惟一值和計數
View Code

 

2、數據表清洗

  包含操做:sql

    • 重命名列名
    • 檢查空值
    • 刪除包含空值的行/列
    • 刪除全部小於n的非空值的行
    • 填充空值
    • 清除空格
    • 更改數據格式
    • 刪除指定列中重複的值
    • 更改數據
df.columns = ['a','b','c']# :重命名列名
print(df.isnull())# 檢查DataFrame對象中的空值,並返回一個Boolean數組
print(df.notnull())# 檢查DataFrame對象中的空值,並返回一個Boolean數組

print(df.dropna())# 刪除全部包含空值的行
print(df.dropna(axis=1))# 刪除全部包含空值的列
print(df.dropna(axis=1,thresh=n))# 刪除全部小於n的非空值的行

print(df.fillna(value=0)) # 用數字0填充空值,返回值爲填充後的表信息
print(df['price'].fillna(df['price'].mean())) # 使用指定列(price)的均值填充指定列(price)的空值,返回值爲填充後的列信息

df['city']=df['city'].map(str.strip) # 清除指定字段(city)的字符空格,注意清洗完數據後要從新賦值回去
df['city']=df['city'].str.lower() # 支持str的操做,這裏指變爲小些,注意清洗完數據後要從新賦值回去
print(df['city'])

print(df['age'].astype('int')) # 更改數據格式,這裏的操做是將數據轉爲int,不須要從新賦值
print(df.rename(columns={'category': 'category-size'})) # 更改表頭

print(df['city'].drop_duplicates()) # 刪除指定列中重複的值(保留前面的,刪除後面的)
print(df['city'].drop_duplicates(keep='last'))# 刪除指定列中重複的值(保留後面的,刪除前面的)

print(df['city'].replace('sh', 'shanghai')) # 更改數據
View Code

 

3、數據表操做

  包含操做:json

    • 交集、並集、左鏈接、右鏈接
    • 設置索引
    • 排序
    • 分組標記
    • 分列並建立數據表
df_inner=pd.merge(df,df1,how='inner')  # 交集,少匹配合並
df_left=pd.merge(df,df1,how='left')    # 左鏈接,按左表爲準,右表不夠的用NaN補
df_right=pd.merge(df,df1,how='right')  # 右鏈接,按右表爲準,左表不夠的用NaN補
df_outer=pd.merge(df,df1,how='outer')  # 並集,多匹配合並
print(df_inner)
print(df_left)
print(df_right)
print(df_outer)

print(df_inner.set_index('id')) # 設置索引列,這裏索引設置的是id列
print(df_inner.sort_values(by=['m-point'])) # 按照指定列排序,默認升序
print(df_inner.sort_values(by=['m-point']),ascending=False) # 按照指定列排序,指定降序
print(df_inner.sort_index()) # 按照索引排序,默認升序

# group的值按price的大小顯示,大於3000顯示high,小於3000顯示low
df_inner['group'] = np.where(df_inner['price'] > 3000,'high','low')
df_inner.loc[(df_inner['city'] == 'Beijing') & (df_inner['gender'] == 'male'), 'sign']=1# 對複合多個條件的數據進行分組標記
print(df_inner)

# 對category字段的值依次進行分列,並建立數據表,索引值爲df_inner的索引列,列名稱爲category和size
print(pd.DataFrame((x.split('-') for x in df_inner['category']),index=df_inner.index,columns=['category','size']))

# 將完成分裂後的數據表和原df_inner數據表進行匹配
split = pd.DataFrame((x.split('-') for x in df_inner['category']),index=df_inner.index,columns=['category','size'])
df_inner=pd.merge(df_inner,split,right_index=True, left_index=True)
print(df_inner)
View Code

 

4、數據提取

  包含操做:數組

    • 提取單行/區域行的值
    • 重設索引
    • 按位置提取數據
    • 按索引提取數據
    • 判斷數據值
    • 提取指定字符並生成數據表
"""
主要用到的三個函數:loc,iloc和ix
 - loc函數按標籤值進行提取
 - iloc按位置進行提取
 - ix能夠同時按標籤和位置進行提取。
"""
print(df_inner.loc[3])# 按索引提取單行的數值,這裏提取的是第四行
print(df_inner.iloc[0:5])# 按索引提取區域行數值,這裏提取的是0到四行

df_inner.reset_index()# 重設索引
df_inner=df_inner.set_index('date') # 將指定字段設置爲索引,這裏用的日期
print(df_inner[:'2013-01-04'])# 切片提取數據,這裏切的日期,須要先將日期設爲索引

# - 使用iloc按位置區域提取數據
print(df_inner.iloc[:3,:2]) #冒號先後的數字再也不是索引的標籤名稱而是數據所在的位置,這裏表示從0開始,前三行,前兩列。
print(df_inner.iloc[[0,2,5],[4,5]]) #提取第0、二、5行,四、5列

# - 使用ix按索引標籤和位置混合提取數據
print(df_inner.ix[:'2013-01-03',:4]) #2013-01-03號以前,前四列數據

print(df_inner['city'].isin(['Beijing']))# 判斷city列的值是否爲北京

print(df_inner.loc[df_inner['city'].isin(['beijing','shanghai'])])# 判斷city列裏是否包含beijing和shanghai,而後將符合條件的數據提取出來

print(pd.DataFrame(df_inner['city'].str[:3]))# 提取前三個字符,並生成數據表
View Code

 

5、數據篩選

  包含操做:與/或/非/大於/小於/等於/不等於app

# 使用與、或、非三個條件配合大於、小於、等於對數據進行篩選,並進行計數和求和。
print(df_inner.loc[(df_inner['age'] > 25) & (df_inner['city'] == 'shanghai'), ['id','city','age','category','gender']])
print(df_inner.loc[(df_inner['age'] > 25) | (df_inner['city'] == 'shanghai'), ['id','city','age','category','gender']] )
print(df_inner.loc[(df_inner['city'] != 'beijing'), ['id','city','age','category','gender']])

# 對篩選後的數據按city列進行計數
print(df_inner.loc[(df_inner['city'] != 'beijing'), ['id','city','age','category','gender']].city.count())

# 使用query函數進行篩選
print(df_inner.query('city == ["beijing", "shanghai"]'))

# 對篩選後的結果按price進行求和
print(df_inner.query('city == ["Shenzhen", "shanghai"]').price.sum())

 

6、數據處理

  包含操做:計數彙總(主要用groupby)dom

# 主要函數是groupby和pivote_table
print(df_inner.groupby('city').count())# 對全部的列進行計數彙總
print(df_inner.groupby('city')['id'].count())# 按city對id字段進行計數
print(df_inner.groupby(['city','price'])['id'].count())# 對兩個字段進行彙總計數
print(df_inner.groupby('city')['price'].agg([len,np.sum, np.mean]) )# 對city字段進行彙總,並分別計算prince的合計和均值

 

7、數據統計

  包含操做:ide

    • 數據採樣(可設置權重)
    • 數據表描述性統計
    • 標準差和方差
    • 相關性統計
    • 全部列的均值
    • 每一列的最大值、最小值、中位數、標準差
# 數據採樣,計算標準差,協方差和相關係數
print(df_inner.sample(n=3))# 簡單的數據採樣(隨機取3行數據)

# 手動設置採樣權重,這裏指3/4/5的權重比較高,隨機取時機率較大
weights = [0, 0, 0, 0.5, 0.5, 0.5]
print(df_inner.sample(n=2, weights=weights))

print(df_inner.sample(n=6, replace=False))# 採樣後不放回
print(df_inner.sample(n=6, replace=True))# 採樣後放回

# 數據表描述性統計
print(df_inner.describe().round(2).T) #round函數設置顯示小數位,T表示轉置

# 標準差和協方差
print(df_inner['price'].std())# 計算列的標準差
print(df_inner['price'].cov(df_inner['m-point']))# 計算兩個字段間的協方差
print(df_inner.cov())# 計算數據表中全部字段間的協方差

# 計算兩個字段的相關性分析,相關係數在-1到1之間,接近1爲正相關,接近-1爲負相關,0爲不相關
print(df_inner['price'].corr(df_inner['m-point']))

print(df.describe())# 查看數據值列的彙總統計
print(df.mean())# 返回全部列的均值
print(df.corr())# 返回列與列之間的相關係數
print(df.count())# 返回每一列中的非空值的個數
print(df.max())# 返回每一列的最大值
print(df.min())# 返回每一列的最小值
print(df.median())# 返回每一列的中位數
print(df.median())# 返回每一列的標準差
View Code

 

8、數據輸出

df_inner.to_excel('excel_to_python.xlsx', sheet_name='bluewhale_cc')
df_inner.to_csv('excel_to_python.csv')
df.to_sql(table_name, connection_object)# 導出數據到SQL表
df.to_json("filename")# 以Json格式導出數據到文本文件
相關文章
相關標籤/搜索