pandas读取文件
pandas.
read_csv
(filepath_or_buffer, sep=', ', delimiter=None, header='infer', names=None, index_col=None, usecols=None, squeeze=False, prefix=None, mangle_dupe_cols=True, dtype=None, engine=None, converters=None, true_values=None, false_values=None, skipinitialspace=False, skiprows=None, skipfooter=0, nrows=None, na_values=None, keep_default_na=True, na_filter=True, verbose=False, skip_blank_lines=True, parse_dates=False, infer_datetime_format=False, keep_date_col=False, date_parser=None, dayfirst=False, iterator=False, chunksize=None, compression='infer', thousands=None, decimal=b'.', lineterminator=None, quotechar='"', quoting=0, doublequote=True, escapechar=None, comment=None, encoding=None, dialect=None, tupleize_cols=None, error_bad_lines=True, warn_bad_lines=True, delim_whitespace=False, low_memory=True, memory_map=False, float_precision=None)
http://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.read_csv.html#pandas.read_csv
read_csv()用于读取文件,URL,CSV格式文件数据,默认文件里数据的分隔符是","。
pandas.
read_table
(filepath_or_buffer, sep=False, delimiter=None, header='infer', names=None, index_col=None, usecols=None, squeeze=False, prefix=None, mangle_dupe_cols=True, dtype=None, engine=None, converters=None, true_values=None, false_values=None, skipinitialspace=False, skiprows=None, skipfooter=0, nrows=None, na_values=None, keep_default_na=True, na_filter=True, verbose=False, skip_blank_lines=True, parse_dates=False, infer_datetime_format=False, keep_date_col=False, date_parser=None, dayfirst=False, iterator=False, chunksize=None, compression='infer', thousands=None, decimal=b'.', lineterminator=None, quotechar='"', quoting=0, doublequote=True, escapechar=None, comment=None, encoding=None, dialect=None, tupleize_cols=None, error_bad_lines=True, warn_bad_lines=True, delim_whitespace=False, low_memory=True, memory_map=False, float_precision=None)
http://pandas.pydata.org/pandas-docs/stable/reference/api/pandas.read_table.html#pandas.read_table
read_table()用于读取文件,URL,CSV格式文件数据,默认文件里数据的分隔符是“\t”。
无论read_csv()和read_table()都默认把第一行数据做为DataFrame的列名。
不希望第一行数据做为DataFrame的列名,需要添加参数header=None。
read_csv("文件路径",header=None)
read_table("文件路径",header=None)
其他函数参数:
path:表示文件系统位置、URL、文件型对象的字符串。
sep或delimiter:用于对行中各字段进行拆分的字符序列或正则表达式。
header:用作列名的行号。默认为0(第一行),如果文件没有标题行就将header参数设置为None。
index_col:用作行索引的列编号或列名。可以是单个名称/数字或有多个名称/数字组成的列表(层次化索引)。
names:用于结果的列名列表,结合header=None,可以通过names来设置标题行。
skiprows:需要忽略的行数(从0开始),设置的行数将不会进行读取。
na_values:设置需要将值替换成NA的值。
comment:用于注释信息从行尾拆分出去的字符(一个或多个)。
parse_dates:尝试将数据解析为日期,默认为False。如果为True,则尝试解析所有列。除此之外,参数可以指定需要解析的一组列号或列名。如果列表的元素为列表或元组,就会将多个列组合到一起再进行日期解析工作。
keep_date_col:如果连接多列解析日期,则保持参与连接的列。默认为False。
converters:由列号/列名跟函数之间的映射关系组成的字典。如,{"age:",f}会对列索引为age列的所有值应用函数f。
dayfirst:当解析有歧义的日期时,将其看做国际格式(例如,7/6/2012 ---> June 7 , 2012)。默认为False。
date_parser:用于解析日期的函数。
nrows:需要读取的行数。
iterator:返回一个TextParser以便逐块读取文件。
chunksize:文件块的大小(用于迭代)。
skip_footer:需要忽略的行数(从文件末尾开始计算)。
verbose:打印各种解析器输出信息,如“非数值列中的缺失值的数量”等。
encoding:用于unicode的文本编码格式。例如,"utf-8"或"gbk"等文本的编码格式。
squeeze:如果数据经过解析之后只有一列的时候,返回Series。
thousands:千分位分隔符,如","或"."。