大数据开发之Hive SQL优化思路分享

抽象沙漏
• 阅读 462

Hive的优化主要分为:配置优化、SQL语句优化、任务优化等方案。
其中在开发过程中主要涉及到的可能是SQL优化这块。
优化的核心思想是:
• 减少数据量(例如分区、列剪裁)
• 避免数据倾斜(例如加参数、Key打散)
• 避免全表扫描(例如on添加加上分区等)
• 减少job数(例如相同的on条件的join放在一起作为一个任务)

大数据开发之Hive SQL优化思路分享
HQL语句优化
1、使用分区剪裁、列剪裁
在分区剪裁中,当使用外关联时,大数据培训如果将副表的过滤条件写在Where后面,那么就会先全表关联,之后再过滤。
select a.*
from test1 a
left join test2 b on a.uid = b.uid
where a.ds='2020-08-10'
and b.ds='2020-08-10'上面这个SQL主要是犯了两个错误:

  1. 副表的过滤条件写在where后面,会导致先全表关联在过滤分区
  2. on的条件没有过滤null值的情况,如果两个数据表存在大批量null值的情况,会造成数据倾斜。

select a.*
from test1 a
left join test2 b on (d.uid is not null and a.uid = b.uid and b.ds='2020-08-10')
where a.ds='2020-08-10'如果null值也是需要的,那么需要在条件上转换,或者单独拿出来
select a.*
from test1 a
left join test2 b on (a.uid is not null and a.uid = b.uid and b.ds='2020-08-10')
where a.ds='2020-08-10'
union all
select a.* from test1 a where a.uid is null

或者

select a.*
from test1 a
left join test2 b on
case when a.uid is null then concat("test",RAND()) else a.uid end = b.uid and
b.ds='2020-08-10'
where a.ds='2020-08-10'

或者(子查询)

select a.*
from test1 a
left join
(select uid from test2 where ds = '2020-08-10' and uid is not null) b on a.uid = b.uid
where a.uid is not null
and a.ds='2020-08-10'2、尽量不要用COUNT DISTINCT,因为COUNT DISTINCT操作需要用一个Reduce Task来完成,这一个Reduce需要处理的数据量太大,就会导致整个Job很难完成,一般COUNT DISTINCT使用先GROUP BY在COUNT的方式替换,虽然会多用一个Job来完成,但在数据量大的情况下,这个绝对是值得的。
select count(distinct uid)
from test
where ds='2020-08-10' and uid is not null

转换为

select count(a.uid)
from
(select uid from test where uid is not null and ds = '2020-08-10' group by uid) a3、使用with as,因为拖慢hive查询效率除了join产生的shuffle以外,还有一个就是子查询,在SQL语句里面尽量减少子查询。with as是将语句中用到的子查询事先提取出来(类似临时表),使整个查询当中的所有模块都可以调用该查询结果。使用with as可以避免Hive对不同部分的相同子查询进行重复计算。
select a.*
from test1 a
left join test2 b on a.uid = b.uid
where a.ds='2020-08-10'
and b.ds='2020-08-10'

可以转化为

with b
as
select uid
from test2
where ds = '2020-08-10' and uid is not null

select a.*
from test1 a
left join b on a.uid = b.uid
where a.ds='2020-08-10' and a.uid is not null4、大小表的join,写有Join操作的查询语句时有一条原则:应该将条目少的表/子查询放在Join操作符的左边。原因是在Join操作的Reduce阶段,位于Join操作符左边的表的内容会被加载进内存,将条目少的表放在左边,可以有效减少发生OOM错误的几率。
但新版的hive已经对小表JOIN大表和大表JOIN小表进行了优化。小表放在左边和右边已经没有明显区别。
不过在做join的过程中通过小表在前可以适当地减少数据量,提高效率。
5、数据倾斜,数据倾斜的原理都知道,就是某一个或几个key占据了整个数据的90%,这样整个任务的效率都会被这个key的处理拖慢,同时也可能会因为相同的key会聚合到一起造成内存溢出。

数据倾斜只会发生在shuffle过程中。这里给大家罗列一些常用的并且可能会触发shuffle操作的算子:distinct、 groupByKey、reduceByKey、aggregateByKey、join、cogroup、repartition等。出现数据倾斜时, 可能就是你的代码中使用了这些算子中的某一个所导致的。
hive的数据倾斜一般的处理方案:
常见的做法,通过参数调优:
set hive.map.aggr=true;
set hive.groupby.skewindata = ture;
当选项设定为true时,生成的查询计划有两个MapReduce任务。
在第一个MapReduce中,map的输出结果集合会随机分布到reduce中,每个reduce做部分聚合操作,
并输出结果。
这样处理的结果是,相同的Group By Key有可能分发到不同的reduce中,从而达到负载均衡的目的;
第二个MapReduce任务再根据预处理的数据结果按照Group By Key分布到reduce中(这个过程可以
保证相同的Group By Key分布到同一个reduce中),最后完成最终的聚合操作。
大数据开发之Hive SQL优化思路分享
但是这个处理方案对于我们来说是个黑盒,无法把控。

一般处理方案是将对应的key值打散即可。

例如:
select a.*
from test1 a
left join test2 b on a.uid = b.uid
where a.ds='2020-08-10'
and b.ds='2020-08-10'

如果有90%的key都是null,这样不可避免的出现数据倾斜。select a.uid
from test1 as a
join(
select case when uid is null then cast(rand(1000000) as int)
else uid
from test2 where ds='2020-08-10') b
on a.uid = b.uid
where a.ds='2020-08-10'

当然这种只是理论上的处理方案。
正常的方案是null进行过滤,但是日常情况下不是这中特殊的key。
那么在日常需求的情况下如何处理这种数据倾斜的情况呢:

  1. sample采样,获取哪些集中的key
  2. 将集中的key按照一定规则添加随机数
  3. 进行join,由于打散了,所以数据倾斜避免了
  4. 在处理结果中对之前的添加的随机数进行切分,变成原始的数据;当然这些优化都是针对SQL本身的优化,还有一些是通过参数设置去调整的,这里面就不再详细描述了。
    但是优化的核心思想都差不多:
  5. 减少数据量
  6. 避免数据倾斜
  7. 减少JOB数
  8. 虚核心点:根据业务逻辑对业务实现的整体进行优化;
  9. 虚解决方案:采用presto、impala等专门的查询引擎,采用spark计算引擎替换MR/TEZ
点赞
收藏
评论区
推荐文章
Wesley13 Wesley13
3年前
SQL优化器原理
摘要:在MaxCompute中,Join操作符的实现算法之一名为"HashJoin",其实现原理是,把小表的数据全部读入内存中,并拷贝多份分发到大表数据所在机器,在map阶段直接扫描大表数据与内存中的小表数据进行匹配。    这是MaxCompute有关SQL优化器原理的系列文章之一。我们会陆续推出SQL优化器有关优化规则和框架
Wesley13 Wesley13
3年前
SQL优化中索引列使用函数之灵异事件
很久之前的自己写的文章了,拿出来复习一下,O(∩\_∩)O哈哈~在SQL优化内容中有一种说法说的是避免在索引列上使用函数、运算等操作,否则Oracle优化器将不使用索引而使用全表扫描,但是也有一些例外的情况,今天我们就来看看该灵异事件。一般而言,以下情况都会使Oracle的优化器走全表扫描,举例:1.substr(hbs\_bh
Kevin501 Kevin501
4年前
常见SQL编写和优化
常见的SQL优化方式1.对查询进行优化,应尽量避免全表扫描,首先应考虑在where及orderby涉及的列上建立索引。2.应尽量避免在where子句中对字段进行null值判断,否则将导致引擎放弃使用索引而进行全表扫描,如:selectidfromtwherenumisnul
lix_uan lix_uan
3年前
Hive调优
Explain查看执行计划在查询语句前加explainsqlexplainselectfromtable;查看详细执行计划explainextendedselectfromtable;建表优化分区表sql创建分区表createtabledeptpartition(deptnoint,dnamest
Wesley13 Wesley13
3年前
BATJ解决千万级别数据之MySQL 的 SQL 优化大总结
引用在数据库运维过程中,优化SQL是DBA团队的日常任务。例行SQL优化,不仅可以提高程序性能,还能减低线上故障的概率。目前常用的SQL优化方式包括但不限于:业务层优化、SQL逻辑优化、索引优化等。其中索引优化通常通过调整索引或新增索引从而达到SQL优化的目的。索引优化往往可以在短时间内产生非常巨大的效果。
Wesley13 Wesley13
3年前
MySQL数据库优化技巧
MySQL优化三大方向①优化MySQL所在服务器内核(此优化一般由运维人员完成)。②对MySQL配置参数进行优化(my.cnf)此优化需要进行压力测试来进行参数调整。③对SQL语句以及表优化。MySQL参数优化1:MySQL默认的最大连接数为100,可以在mysql客户端使用以下命令查看mysql
Wesley13 Wesley13
3年前
MySQL基础学习笔记——数据库优化(2):SQL查询优化
数据库优化SQL查询优化1.避免全表扫描,应该考虑在where及orderby涉及的列上建立索引;2.查询时使用select明确指明所要查询的字段,避免使用select(keys,flushdb等)的操作;3.SQL语句尽量大写,
Stella981 Stella981
3年前
Hive优化的十大方法
Hive用的好,才能从数据中挖掘出更多的信息来。用过hive的朋友,我想或多或少都有类似的经历:一天下来,没跑几次hive,就到下班时间了。Hive在极大数据或者数据不平衡等情况下,表现往往一般,因此也出现了presto、sparksql等替代品。这里重点讲解hive的优化方式,例如优化分组:sethive.auto.convert.join
Wesley13 Wesley13
3年前
GROUP BY另类优化技巧
分享嘉宾:知数堂〖SQL开发优化班〗讲师郑松华,韩国Infobridge的SQL优化专家&7年SQL开发和调优经验&资深数据库工程师。本次主题《GROUPBY另类优化技巧》,主要内容是从GROUPBY、ORDERBY的基础语法到内部算法,最后到实际应用,对需要开发含有复杂的排序功能的同学们更是提供了思路。内容干货满满,实用
Wesley13 Wesley13
3年前
MySQL优化总结
★【单表优化】思路【表设计】开始,字段尽量精确,避免过多字段,避免null。【存储引擎】选择好。【索引】设计好。【查询优化】,between和exists优于in的使用;unionall比union的效率高。【表分区】的使用。上面属于单表优化的思路。如果还不能满足
Wesley13 Wesley13
3年前
Hibernate常见知识汇总
1.在数据库中条件查询速度很慢的时候,如何优化?1.建索引2.减少表之间的关联3.优化sql,尽量让sql很快定位数据,不要让sql做全表查询,应该走索引,把数据量大的表排在前面4.简化查询字段,没用的字段不要,已经对返回结果的控制,尽量返回少量数据2.在Hibernate中进行多表查询,每个表中各取几个字段,也就是说查询出来的结果
抽象沙漏
抽象沙漏
Lv1
天长地久有时尽,此恨绵绵无绝期。
文章
4
粉丝
0
获赞
0