Pandas数据载入与预处理(详细的数据Python处理方法)

黎明之道 等级 907 0 0

Pandas数据载入与预处理

对于数据分析而言,数据大部分来源于外部数据,如常用的CSV文件、Excel文件和数据库文件等。Pandas库将外部数据转换为DataFrame数据格式,处理完成后再存储到相应的外部文件中。

NumPy常用的导入格式:import pandas as pd

一、数据载入

读取文本文件

文本文件是一种由若干行字符构成的计算机文件,它是一种典型的顺序文件。

txt文件:是Windows操作系统上附带的一种文本格式,文件以.txt为后缀。

CSV文件:是Comma-Separated Values的缩写,用半角逗号(’,’)作为字段值的分隔符。

Pandas中使用read_table来读取文本文件:
pandas.read_table(filepath_or_buffer, sep=’\t’, header=’infer’, names=None, index_col=None, dtype=None, engine=None, nrows=None)

Pandas中使用read_csv函数来读取CSV文件:
pandas.read_csv(filepath_or_buffer, sep=’,’, header=’infer’, names=None, index_col=None, dtype=None, engine=None, nrows=None)

read_table和read_csv常用参数及其说明:
Pandas数据载入与预处理(详细的数据Python处理方法)
Pandas数据载入与预处理(详细的数据Python处理方法)

文本文件的存储

文本文件的存储和读取类似,结构化数据可以通过pandas中的to_csv函数实现以CSV文件格式存储文件。

DataFrame.to_csv(path_or_buf = None, sep = ’,’, na_rep, columns=None, header=True, index=True, index_label=None, mode=’w’, encoding=None)

Excel文件的读取

Pandas提供了read_excel函数读取“xls”和“xlsx”两种excel文件,其格式为:
pandas.read_excel(io, sheetname, header=0, index_col=None, names=None, dtype)

read_excel函数和read_table函数的部分参数相同.
Pandas数据载入与预处理(详细的数据Python处理方法)
Pandas数据载入与预处理(详细的数据Python处理方法)
Excel文件的存储

将文件存储为Excel文件,可使用to_excel方法。其语法格式如下:
DataFrame.to_excel(excel_writer=None, sheetname=None’, na_rep=”, header=True, index=True, index_label=None, mode=’w’, encoding=None)

to_csv方法的常用参数基本一致,区别之处在于指定存储文件的文件路径参数excel_writer,增加了一个sheetnames参数,用来指定存储的Excel sheet的名称,默认为sheet1。

2.数据合并

merge数据合并

merge函数是通过一个或多个键将两个DataFrame按行合并起来,与SQL中的 join 用法类似,Pandas中的数据合并merge( )函数格式如下:
merge(left, right, how='inner', on=None, left_on=None, right_on=None, left_index=False, right_index=False, sort=False, suffixes=('_x', '_y'), copy=True, indicator=False, validate=None)

merge方法主要参数及说明:
Pandas数据载入与预处理(详细的数据Python处理方法)
Pandas数据载入与预处理(详细的数据Python处理方法)
concat数据连接

如果要合并的DataFrame之间没有连接键,就无法使用merge方法。pandas中的concat方法可以实现,默认情况下会按行的方向堆叠数据。如果在列向上连接设置axies = 1即可。
例如:

Pandas数据载入与预处理(详细的数据Python处理方法)
Pandas数据载入与预处理(详细的数据Python处理方法)
运行结果:

Pandas数据载入与预处理(详细的数据Python处理方法)
例如:

Pandas数据载入与预处理(详细的数据Python处理方法)
运行结果:

Pandas数据载入与预处理(详细的数据Python处理方法)
combine_first合并数据

如果需要合并的两个DataFrame存在重复索引,则使用merge和concat都无法正确合并,此时需要使用combine_first方法。

例如:
Pandas数据载入与预处理(详细的数据Python处理方法)
运行结果:
Pandas数据载入与预处理(详细的数据Python处理方法)

3.数据清洗

检测与处理缺失值

isnull()函数可以直接判断某列中的哪个数据为NaN,利用isnull().sum()可以统计缺失值的缺失数目。

string_data = pd.Series(['aardvark', 'artichoke', np.nan, 'avocado'])
print(string_data)
string_data.isnull() 

缺失值统计:
Pandas数据载入与预处理(详细的数据Python处理方法)
Pandas数据载入与预处理(详细的数据Python处理方法)
缺失值的处理:

在缺失值的处理方法中,删除缺失值是常用的方法之一。通过dropna方法可以删除具有缺失值的行。

dropna方法的格式:
dropna(axis=0, how=‘any’, thresh=None, subset=None, inplace=False)

dropna的参数及其使用说明:
Pandas数据载入与预处理(详细的数据Python处理方法)
Pandas数据载入与预处理(详细的数据Python处理方法)
Pandas数据载入与预处理(详细的数据Python处理方法)
Pandas数据载入与预处理(详细的数据Python处理方法)

填充缺失值:

缺失值所在的特征为数值型时,通常利用其均值、中位数和众数等描述其集中趋势的统计量来填充;缺失值所在特征为类别型数据时,则选择众数来填充。

Pandas库中提供了缺失值替换的方法fillna,格式如下:DataFrame.fillna(value=None, method=None, axis=None, inplace=False, limit=None)
Pandas数据载入与预处理(详细的数据Python处理方法)
Pandas数据载入与预处理(详细的数据Python处理方法)
Pandas数据载入与预处理(详细的数据Python处理方法)

检测与处理重复值

在DataFrame中利用duplicates方法判断各行是否有重复数据。duplicates方法返回一个布尔值的series,反映每一行是否与之前的行重复。

Pandas通过drop_duplicates删除重复的行,格式为:
drop_duplicates(self, subset=None, keep=’first’, inplace=False)

Pandas数据载入与预处理(详细的数据Python处理方法)
Pandas数据载入与预处理(详细的数据Python处理方法)
drop_duplicates的主要参数及其说明:
Pandas数据载入与预处理(详细的数据Python处理方法)
使用drop_duplicates方法去重时,当且仅当subset参数中的特征重复时候才会执行去重操作,去重时可以选择保留哪一个或者不保留。

Pandas数据载入与预处理(详细的数据Python处理方法)
Pandas数据载入与预处理(详细的数据Python处理方法)
默认保留的数据为第一个出现的记录,通过传入keep = ’last’可以保留最后一个出现的记录。

Pandas数据载入与预处理(详细的数据Python处理方法)
检测异常值

简单的数据统计方法中常用散点图、箱线图和3σ法则检测异常值。

散点图方法: 通过数据分布的散点图发现异常数据。

Pandas数据载入与预处理(详细的数据Python处理方法)
Pandas数据载入与预处理(详细的数据Python处理方法)

箱线图分析: 利用数据中的五个统计量(最小值、下四分位数、中位数、上四分位数和最大值)来描述数据。
Pandas数据载入与预处理(详细的数据Python处理方法)
Pandas数据载入与预处理(详细的数据Python处理方法)

3σ法则: 在3σ原则下,异常值被定义为一组测定值中与平均值的偏差超过3倍标准差的值。Pandas数据载入与预处理(详细的数据Python处理方法)

数据转换:

在pandas中通过replace进行数据值的替换。
Pandas数据载入与预处理(详细的数据Python处理方法)
Pandas数据载入与预处理(详细的数据Python处理方法)
利用函数或映射进行数据转换:
Pandas数据载入与预处理(详细的数据Python处理方法)
Pandas数据载入与预处理(详细的数据Python处理方法)
在Pandas中可以自定义函数,然后通过map方法实现。

4.数据标准化

离差标准化数据
离差标准化是对原始数据所做的一种线性变换,将原始数据的数值映射到[0,1]区间。转换公式如下所示。
Pandas数据载入与预处理(详细的数据Python处理方法)
标准差标准化数据
标准差标准化又称零均值标准化或z分数标准化,是当前使用最广泛的数据标准化方法。
Pandas数据载入与预处理(详细的数据Python处理方法)

5.数据转换

类别型数据的哑变量处理

哑变量( Dummy Variables)是用以反映质的属性的一个人工变量,是量化了的自变量,通常取值为0或1。

利用pandas库中的get_dummies函数对类别型特征进行哑变量处理。

pandas.get_dummies(data, prefix = None, prefix_sep = '_', dummy_na = False, columns = None, sparse = False, drop_first=False)

get_dummies方法的主要参数及其说明:

Pandas数据载入与预处理(详细的数据Python处理方法)
连续型变量的离散化

  1. 等宽法
    Pandas提供了cut函数,可以进行连续型数据的等宽离散化。

pandas.cut(x, bins, right=True, labels=None, retbins=False, precision=3)

cut方法的主要参数及其说明:

Pandas数据载入与预处理(详细的数据Python处理方法)

  1. 等频法
    cut函数虽然不能够直接实现等频离散化,但可以通过定义将相同数量的记录放进每个区间。

  2. 聚类分析法
    一维聚类的方法包括两步,首先将连续型数据用聚类算法进行聚类,然后处理聚类得到的簇,为合并到一个簇的连续型数据做同一标记。

收藏
评论区

相关推荐

2021最全Python入门学习路线
我将在这里带大家快速入门Python,本公众号会专注于Python爬虫、数据分析、数据可视化、办公自动化、Web开发等等 然后接下来会给大家一些学习路线(思维导图),方便大家找到适合自己的学习方向。无论你打算做什么,只要是和Python相关的,这个学习路线绝对都是好用的。 但我特别不希望有些朋友一上来就学习numpy、pandas、matplotlib相
Pandas统计分析基础(基础篇,新手必看)
Pandas统计分析基础Pandas(Python Data Analysis Library)是基于NumPy的数据分析模块,它提供了大量标准数据模型和高效操作大型数据集所需的工具,可以说Pandas是使得Pyth
Pandas数据载入与预处理(详细的数据Python处理方法)
Pandas数据载入与预处理对于数据分析而言,数据大部分来源于外部数据,如常用的CSV文件、Excel文件和数据库文件等。Pandas库将外部数据转换为DataFrame数据格式,处理完成后再存储到相应的外部文件
Python数据分析实战(2)使用Pandas进行数据分析
一、Pandas的使用 1.Pandas介绍Pandas的主要应用包括: 数据读取 数据集成 透视表 数据聚合与分组运算 分段统计 数据可视化Pandas的使用很灵活,最重要的两个数据类型是DataFrame和Series。对DataFrame最直观的理解是把它当成一个Excel表格文件,如下:索引是从0开始的,也
分享5个高效的pandas函数!
熟练掌握pandas函数都能帮我们在数据分析过程中节省时间。pandas还有很多让人舒适的用法,这次就为大家介绍5个pandas函数!本文来源towardsdatascience,作者Soner Yıldırım,由Python大数据分析编译。1\. explodeexplode用于将一行数据展开成多行。比如说dataframe中某一行其中一个元素包含多个同
干货|利用Python自动根据数据生成降雨量统计分析报告
作者:小小明 简介:Pandas数据处理专家,10余年编码经验,至今已帮助过成千上万名数据从业者解决工作实际遇到的问题,其中数据处理和办公自动化问题涉及的行业包括会计、HR、气象、金融等等,现为菜J学Python核心技术团队成员之一。 点击上方“Python爬虫与数据挖掘”,进行关注回复“书籍”即可获赠Python从入门到进阶共10本电子书今日鸡汤今夜偏
14个pandas神操作,手把手教你写代码
「数仓宝贝库」,带你学数据!导读: Pandas是Python数据分析的利器,也是各种数据建模的标准工具。本文带大家入门Pandas,将介绍Python语言、Python数据生态和Pandas的一些基本功能。 在Python语言应用生态中,数据科学领域近年来十分热门。作为数据科学中一个非常基础的库,Pandas受到了广泛关注。Pandas可以将现实中来
14个pandas神操作,手把手教你写代码
「数仓宝贝库」,带你学数据!导读:Pandas是Python数据分析的利器,也是各种数据建模的标准工具。本文带大家入门Pandas,将介绍Python语言、Python数据生态和Pandas的一些基本功能。 在Python语言应用生态中,数据科学领域近年来十分热门。作为数据科学中一个非常基础的库,Pandas受到了广泛关注。Pandas可以将现实中来源
DataFrame与shp文件相互转换
因为习惯了使用pandas的DataFrame数据结构,同时pandas作为一个方便计算和表操作的数据结构具有十分显著的优势,甚至很多时候dataFrame可以作为excel在使用,而在用python操作gis的shp文件时很不顺畅,不太符合使用习惯,故写了一个DataFrame与arcgis地理文件相互转换的函数,这个处理起来可以节约大量的思考时间。 S
Mars Remote API 轻松分布式执行 Python 函数
Mars 是一个并行和分布式 Python 框架,能轻松把单机大家耳熟能详的的 numpy、pandas、scikit-learn 等库,以及 Python 函数利用多核或者多机加速。这其中,并行和分布式 Python 函数主要利用 Mars Remote API。 启动 Mars 分布式环境可以参考: 1. 命令行方式在集群中部署。 2. Kube
Panda处理文本和时序数据?首选向量化
导读 Pandas作为Python数据分析的首选框架,不仅功能强大接口丰富,而且执行效率也相比原生Python要快的多,这是得益于Pandas底层由C实现,同时其向量化执行方式也非常利于并行计算。更重要的是,这种向量化操作不仅适用于数值计算,对于文本和时间格式也有着良好的支持,而这就不得不从Pandas的属性接口谈起。 [**腾讯课堂 |
Python 数据分析包:pandas 基础
pandas 是基于 Numpy 构建的含有更高级数据结构和工具的数据分析包 类似于 Numpy 的核心是 ndarray,pandas 也是围绕着 Series 和 DataFrame 两个核心数据结构展开的 。Series 和 DataFrame 分别对应于一维的序列和二维的表结构。pandas 约定俗成的导入方法如下: lang:pytho
Python3环境通过JDBC访问非Kerberos环境的Hive
**1.文档编写目的** * * * 在前面Fayson介绍了在Python2的环境下《如何使用Python Impyla客户端连接Hive和Impala》,本篇文章Fayson主要介绍在Python3的环境下使用Impyla访问非Kerberos环境下的Hive以及将获取到的结果集转换为Pandas的DataFrame。 * 内容
Python在网页上展示表格的简单方法
![](https://oscimg.oschina.net/oscnet/22596eed-3e2a-4708-acc1-bc8a22f8588d.jpg) * Python是当今最热门的编程语言 * Pandas是Python下最热门的数据处理与数据分析的库 * Flask是Python下方便简洁的Web开发框架
Python编码格式导致的csv读取错误
Python编码格式导致的csv读取错误(pandas.read\_csv) ====================================== 本文记录python小白我今天遇到的这两个问题(csv.reader和pandas.csv\_read): * pandas模块“CParserError: Error tokenizing da