在 Pandas 中使用 Merge、Join 、Concat合并数据的效率对比

极客溯光者
• 阅读 1001

在 Pandas 中有很多种方法可以进行DF的合并。本文将研究这些不同的方法,以及如何将它们执行速度的对比。

合并DF

Pandas 使用 .merge() 方法来执行合并。

import pandas as pd  
  
# a dictionary to convert to a dataframe 
data1 = {'identification': ['a', 'b', 'c', 'd'], 
        'Customer_Name':['King', 'West', 'Adams', 'Mercy'],          'Category':['furniture', 'Office Supplies', 'Technology', 'R_materials'],}  
   
# our second dictionary to convert to a dataframe  
data2 = {'identification': ['a', 'b', 'c', 'd'], 
        'Class':['First_Class', 'Second_Class', 'Same_day', 'Standard Class'],  
       'Age':[60, 30, 40, 50]}  

# Convert the dictionary into DataFrame   
df1 = pd.DataFrame(data1) 
df2 = pd.DataFrame(data2)  

运行我们的代码后,有两个 DataFrame,如下所示。

identification Customer_Name         Category 
0              a          King        furniture 
1              b          West  Office Supplies 
2              c         Adams       Technology 
3              d         Mercy      R_materials  

 identification           Class  Age 
0              a     First_Class   60 
1              b    Second_Class   30 
2              c        Same_day   40 
3              d  Standard Class   50

使用 merge() 函数进一步合并。

在 Pandas 中使用 Merge、Join 、Concat合并数据的效率对比

# using .merge() function  
new_data = pd.merge(df1, df2, on='identification')

这产生了下面的新数据;

  identification Customer_Name  Category     Class            Age 
0     a           King          furniture     First_Class     60 
1     b           West         Office Supplies Second_Class   30 
2     c           Adams         Technology      Same_day      40 
3     d           Mercy         R_materials  Standard Class   50

.join() 方法也可以将不同索引的 DataFrame 组合成一个新的 DataFrame。我们可以使用参数‘on’参数指定根据哪列进行合并。

在 Pandas 中使用 Merge、Join 、Concat合并数据的效率对比

让我们看看下面的例子,我们如何将单索引 DataFrame 与多索引 DataFrame 连接起来;

import pandas as pd  

# a dictionary to convert to a dataframe 
data1 = { 
       'Customer_Name':['King', 'West', 'Adams'],  
      'Category':['furniture', 'Office Supplies', 'Technology'],}  7     
# our second dictionary to convert to a dataframe  
data2 = { 
       'Class':['First_Class', 'Second_Class', 'Same_day', 'Standard Class'],  
      'Age':[60, 30, 40, 50]}  

# Convert the dictionary into DataFrame   
Ndata = pd.DataFrame(data1, index=pd.Index(['a', 'b', 'c'], name='identification')) 

index = pd.MultiIndex.from_tuples([('a', 'x0'), ('b', 'x1'), 
                                 ('c', 'x2'), ('c', 'x3')], 
                                 names=['identification', 'x']) 19   
# Convert the dictionary into DataFrame   
Ndata2 = pd.DataFrame(data2, index= index) 

print(Ndata, "\n\n", Ndata2) 

# joining singly indexed with 
# multi indexed 
result = Ndata.join(Ndata2, how='inner')

我们的结果如下所示;

               Customer_Name       Category      Class       Age 
identification x                                                      3 a         x0       King        furniture     First_Class      60 
b         x1       West     Office Supplies    Second_Class   30 
c         x2       Adams       Technology       Same_day      40 
          x3       Adams       Technology  Standard Class     50

连接DF

Pandas 中concat() 方法在可以在垂直方向(axis=0)和水平方向(axis=1)上连接 DataFrame。我们还可以一次连接两个以上的 DataFrame 或 Series。

让我们看一个如何在 Pandas 中执行连接的示例;

import pandas as pd  

# a dictionary to convert to a dataframe 
data1 = {'identification': ['a', 'b', 'c', 'd'], 
        'Customer_Name':['King', 'West', 'Adams', 'Mercy'],  
       'Category':['furniture', 'Office Supplies', 'Technology', 'R_materials'],}  
   
# our second dictionary to convert to a dataframe  
data2 = {'identification': ['a', 'b', 'c', 'd'], 
        'Class':['First_Class', 'Second_Class', 'Same_day', 'Standard Class'],  
       'Age':[60, 30, 40, 50]}  

# Convert the dictionary into DataFrame   
df1 = pd.DataFrame(data1) 
df2 = pd.DataFrame(data2)  
#perform concatenation here based on horizontal axis 
new_data = pd.concat([df1, df2], axis=1) 
print(new_data)

这样就获得了新的 DataFrame :

 identification Customer_Name         Category identification  \ 
0              a          King        furniture              a    3 1              b          West  Office Supplies              b    4 2              c         Adams       Technology              c    5 3              d         Mercy      R_materials              d    

          Class       Age   
  0     First_Class    60   
  1    Second_Class    30   
  2        Same_day    40   
  3  Standard Class    50

Merge和Join的效率对比

Pandas 中的Merge Joins操作都可以针对指定的列进行合并操作(SQL中的join)那么他们的执行效率是否相同呢?下面我们来进行一下测。

两个 DataFrame 都有相同数量的行和两列,实验中考虑了从 100 万行到 1000 万行的不同大小的 DataFrame,并在每次实验中将行数增加了 100 万。我对固定数量的行重复了十次实验,以消除任何随机性。下面是这十次试验中合并操作的平均运行时间。

在 Pandas 中使用 Merge、Join 、Concat合并数据的效率对比

上图描绘了操作所花费的时间(以毫秒为单位)。

正如我们从图中看到的,运行时间存在显着差异——最多相差 5 倍。随着 DataFrame 大小的增加,运行时间之间的差异也会增加。两个 JOIN 操作几乎都随着 DataFrame 的大小线性增加。但是,Join的运行时间增加的速度远低于Merge。

如果需要处理大量数据,还是请使用join()进行操作。

https://avoid.overfit.cn/post/e5572b2110ac489fafa226403e70105d

点赞
收藏
评论区
推荐文章
blmius blmius
4年前
MySQL:[Err] 1292 - Incorrect datetime value: ‘0000-00-00 00:00:00‘ for column ‘CREATE_TIME‘ at row 1
文章目录问题用navicat导入数据时,报错:原因这是因为当前的MySQL不支持datetime为0的情况。解决修改sql\mode:sql\mode:SQLMode定义了MySQL应支持的SQL语法、数据校验等,这样可以更容易地在不同的环境中使用MySQL。全局s
Wesley13 Wesley13
3年前
MySQL部分从库上面因为大量的临时表tmp_table造成慢查询
背景描述Time:20190124T00:08:14.70572408:00User@Host:@Id:Schema:sentrymetaLast_errno:0Killed:0Query_time:0.315758Lock_
美凌格栋栋酱 美凌格栋栋酱
7个月前
Oracle 分组与拼接字符串同时使用
SELECTT.,ROWNUMIDFROM(SELECTT.EMPLID,T.NAME,T.BU,T.REALDEPART,T.FORMATDATE,SUM(T.S0)S0,MAX(UPDATETIME)CREATETIME,LISTAGG(TOCHAR(
皕杰报表之UUID
​在我们用皕杰报表工具设计填报报表时,如何在新增行里自动增加id呢?能新增整数排序id吗?目前可以在新增行里自动增加id,但只能用uuid函数增加UUID编码,不能新增整数排序id。uuid函数说明:获取一个UUID,可以在填报表中用来创建数据ID语法:uuid()或uuid(sep)参数说明:sep布尔值,生成的uuid中是否包含分隔符'',缺省为
Jacquelyn38 Jacquelyn38
4年前
2020年前端实用代码段,为你的工作保驾护航
有空的时候,自己总结了几个代码段,在开发中也经常使用,谢谢。1、使用解构获取json数据let jsonData  id: 1,status: "OK",data: 'a', 'b';let  id, status, data: number   jsonData;console.log(id, status, number )
Easter79 Easter79
3年前
Twitter的分布式自增ID算法snowflake (Java版)
概述分布式系统中,有一些需要使用全局唯一ID的场景,这种时候为了防止ID冲突可以使用36位的UUID,但是UUID有一些缺点,首先他相对比较长,另外UUID一般是无序的。有些时候我们希望能使用一种简单一些的ID,并且希望ID能够按照时间有序生成。而twitter的snowflake解决了这种需求,最初Twitter把存储系统从MySQL迁移
Wesley13 Wesley13
3年前
mysql设置时区
mysql设置时区mysql\_query("SETtime\_zone'8:00'")ordie('时区设置失败,请联系管理员!');中国在东8区所以加8方法二:selectcount(user\_id)asdevice,CONVERT\_TZ(FROM\_UNIXTIME(reg\_time),'08:00','0
Stella981 Stella981
3年前
Django中Admin中的一些参数配置
设置在列表中显示的字段,id为django模型默认的主键list_display('id','name','sex','profession','email','qq','phone','status','create_time')设置在列表可编辑字段list_editable
Wesley13 Wesley13
3年前
Java日期时间API系列30
  实际使用中,经常需要使用不同精确度的Date,比如保留到天2020042300:00:00,保留到小时,保留到分钟,保留到秒等,常见的方法是通过格式化到指定精确度(比如:yyyyMMdd),然后再解析为Date。Java8中可以用更多的方法来实现这个需求,下面使用三种方法:使用Format方法、 使用Of方法和使用With方法,性能对比,使用
Python进阶者 Python进阶者
2年前
Pandas在合并数据的时候,发现部分数据缺失,该怎么解决?
大家好,我是皮皮。一、前言前几天在Python最强王者群【wen】问了一个Pandas数据合并的问题,一起来看看吧。请教:对两个exlce表示进行合并,dfpd.merge(df1,df2,on"用户账号",how'left'),但是由于系统数据的原因,d
Python进阶者 Python进阶者
1年前
Excel中这日期老是出来00:00:00,怎么用Pandas把这个去除
大家好,我是皮皮。一、前言前几天在Python白银交流群【上海新年人】问了一个Pandas数据筛选的问题。问题如下:这日期老是出来00:00:00,怎么把这个去除。二、实现过程后来【论草莓如何成为冻干莓】给了一个思路和代码如下:pd.toexcel之前把这