pandas.
read_csv
(filepath_or_buffer, sep=', ', delimiter=None, header='infer', names=None, index_col=None,usecols=None, squeeze=False, prefix=None, mangle_dupe_cols=True, dtype=None, engine=None,converters=None, true_values=None, false_values=None, skipinitialspace=False, skiprows=None, nrows=None,na_values=None, keep_default_na=True, na_filter=True, verbose=False, skip_blank_lines=True, parse_dates=False,infer_datetime_format=False, keep_date_col=False, date_parser=None, dayfirst=False, iterator=False,chunksize=None, compression='infer', thousands=None, decimal=b'.', lineterminator=None, quotechar='"', quoting=0,escapechar=None, comment=None, encoding=None, dialect=None, tupleize_cols=None, error_bad_lines=True,warn_bad_lines=True, skipfooter=0, skip_footer=0, doublequote=True, delim_whitespace=False, as_recarray=None,compact_ints=None, use_unsigned=None, low_memory=True, buffer_lines=None, memory_map=False,float_precision=None)正則表達式
功能:將文件讀入DataFrame,還支持可選的將文件迭代或分割成塊。函數
參數:filepath_or_buffer :表示文件系統位置、URL、文件型對象的字符串 編碼
sep或delimiter : 用於對行中各字段進行拆分的字符序列或正則表達式 ‘\r','\t',多種分隔符時使用 '\s+'spa
header : 用做列名的行號。默認爲0(第一行),若是沒有header行就應該設置爲Nonecode
index_col : 用做行索引的列編號或列名。能夠是單個名稱/數字或由多個名稱/數字組成的列表(層次化索引)
orm
names : 用於結果的列名列表,結合header=None對象
skiprows : 須要忽略的行數(從文件開始處算起),或須要跳過的行號列表(從0開始)索引
na_values : 將這個值替換成NAip
comment : 用於將註釋信息從行尾拆分出去的字符(一個或多個)utf-8
parse_dates : 嘗試將數據解析爲日期,默認爲False。若是爲True,則嘗試解析因此列。此外,還能夠指定須要解析的一組列號或列名。若是列表的元素爲列表或元組,就會將多個列組合到一塊兒再進行日期解析工做(例如,日期/時間分別位於兩個列中。)
keep_data_col : 若是鏈接多列解析日期,則保持參與鏈接的列。默認爲False
converters : 有列號/列名跟函數之間的映射關係組成的字典。例如,{'foo' : f}會對foo列的全部值應用函數f
dayfirst : 當解析有歧義的日期時,將其看做國際格式(例如,7/6/2012 → June 7,2012)。默認爲False
data_parser : 用於解析日期的函數
nrows : 須要讀取的行數(從文件開始處算起)
iterator : 返回一個TextParser以便逐塊讀取文件
chunksize : 文件塊的大小(用於迭代)
skip_footer : 須要忽略的行數(從文件末尾處算起)
verbose : 打印各類解析器輸出信息,好比「非數值列中缺失值的數量」等
encoding : 用於unicode文本編碼格式。例如,「utf-8」表示用UTF-8編碼的文本
squeeze : 若是數據經解析後僅含一行,則返回Series
thousands : 千分位分隔符,如","或「.」