`

(转)数据倾斜总结

    博客分类:
  • hive
 
阅读更多

 在做Shuffle阶段的优化过程中,遇到了数据倾斜的问题。

主要是因为在Job完成后的所得到的Counters是整个Job的总和,优化是基于这些Counters得出的平均值,而由于数据倾斜的原因造成map处理数据量的差异过大,使得这些平均值能代表的价值降低。 Hive的执行是分阶段的,map处理数据量的差异取决于上一个stage的reduce输出,所以如何将数据均匀的分配到各个reduce中,就是解决数据倾斜的根本所在。规避错误来更好的运行比解决错误更高效。在查看了一些资料后,总结如下。

1数据倾斜的原因
1.1操作:

关键词

情形

后果

Join

其中一个表较小,

但是key集中

分发到某一个或几个Reduce上的数据远高于平均值

大表与大表,但是分桶的判断字段0值或空值过多

这些空值都由一个reduce处理,灰常慢

group by

group by 维度过小,

某值的数量过多

处理某值的reduce灰常耗时

Count Distinct

某特殊值过多

处理此特殊值的reduce耗时

1.2原因:

 1)、key分布不均匀

 2)、业务数据本身的特性

 3)、建表时考虑不周

 4)、某些SQL语句本身就有数据倾斜

1.3表现:

     任务进度长时间维持在99%(或100%),查看任务监控页面,发现只有少量(1个或几个)reduce子任务未完成。因为其处理的数据量和其他reduce差异过大。

单一reduce的记录数与平均记录数差异过大,通常可能达到3倍甚至更多。 最长时长远大于平均时长。

2数据倾斜的解决方案

2.1参数调节:

                hive.map.aggr = true

Map 端部分聚合,相当于Combiner

                hive.groupby.skewindata=true

       有数据倾斜的时候进行负载均衡,当选项设定为 true,生成的查询计划会有两个 MR Job。第一个 MR Job 中,Map 的输出结果集合会随机分布到 Reduce 中,每个 Reduce 做部分聚合操作,并输出结果,这样处理的结果是相同的 Group By Key 有可能被分发到不同的 Reduce 中,从而达到负载均衡的目的;第二个 MR Job 再根据预处理的数据结果按照 Group By Key 分布到 Reduce 中(这个过程可以保证相同的 Group By Key 被分布到同一个 Reduce 中),最后完成最终的聚合操作。

2.2 SQL语句调节:

如何Join

           关于驱动表的选取,选用join key分布最均匀的表作为驱动表

           做好列裁剪和filter操作,以达到两表做join的时候,数据量相对变小的效果。

大小表Join

          使用map join让小的维度表(1000条以下的记录条数) 先进内存。在map端完成reduce.

大表Join大表:

          把空值的key变成一个字符串加上随机数,把倾斜的数据分到不同的reduce上,由于null值关联不上,处理后并不影响最终结果。

count distinct大量相同特殊值

          count distinct时,将值为空的情况单独处理,如果是计算count distinct,可以不用处理,直接过滤,在最后结果中加1。如果还有其他计算,需要进行group by,可以先将值为空的记录单独处理,再和其他计算结果进行union。

group by维度过小:

         采用sum() group by的方式来替换count(distinct)完成计算。

特殊情况特殊处理:

         在业务逻辑优化效果的不大情况下,有些时候是可以将倾斜的数据单独拿出来处理。最后union回去。

3典型的业务场景

3.1空值产生的数据倾斜

场景:如日志中,常会有信息丢失的问题,比如日志中的 user_id,如果取其中的 user_id 和 用户表中的user_id 关联,会碰到数据倾斜的问题。

解决方法1 user_id为空的不参与关联(红色字体为修改后)

select * from log a
  join users b
  on a.user_id is not null
  and a.user_id = b.user_id
union all
select * from log a
  where a.user_id is null;

 

解决方法2 赋与空值分新的key值

select *
  from log a
  left outer join users b
  on case when a.user_id is null then concat(‘hive’,rand() ) else a.user_id end = b.user_id;

 

结论:方法2比方法1效率更好,不但io少了,而且作业数也少了。解决方法1中 log读取两次,jobs是2。解决方法2 job数是1 。这个优化适合无效 id (比如 -99 , ’’, null 等) 产生的倾斜问题。把空值的 key 变成一个字符串加上随机数,就能把倾斜的数据分到不同的reduce上 ,解决数据倾斜问题。

3.2不同数据类型关联产生数据倾斜

场景:用户表中user_id字段为int,log表中user_id字段既有string类型也有int类型。当按照user_id进行两个表的Join操作时,默认的Hash操作会按int型的id来进行分配,这样会导致所有string类型id的记录都分配到一个Reducer中。

解决方法:把数字类型转换成字符串类型

select * from users a
  left outer join logs b
  on a.usr_id = cast(b.user_id as string)

 

3.3小表不小不大,怎么用 map join 解决倾斜问题

使用 map join 解决小表(记录数少)关联大表的数据倾斜问题,这个方法使用的频率非常高,但如果小表很大,大到map join会出现bug或异常,这时就需要特别的处理。 以下例子:

select * from log a
  left outer join users b
  on a.user_id = b.user_id;

 

users 表有 600w+ 的记录,把 users 分发到所有的 map 上也是个不小的开销,而且 map join 不支持这么大的小表。如果用普通的 join,又会碰到数据倾斜的问题。

解决方法:

select /*+mapjoin(x)*/* from log a
  left outer join (
    select  /*+mapjoin(c)*/d.*
      from ( select distinct user_id from log ) c
      join users d
      on c.user_id = d.user_id
    ) x
  on a.user_id = b.user_id;

 

假如,log里user_id有上百万个,这就又回到原来map join问题。所幸,每日的会员uv不会太多,有交易的会员不会太多,有点击的会员不会太多,有佣金的会员不会太多等等。所以这个方法能解决很多场景下的数据倾斜问题。

4总结

使map的输出数据更均匀的分布到reduce中去,是我们的最终目标。由于Hash算法的局限性,按key Hash会或多或少的造成数据倾斜。大量经验表明数据倾斜的原因是人为的建表疏忽或业务逻辑可以规避的。在此给出较为通用的步骤:

1、采样log表,哪些user_id比较倾斜,得到一个结果表tmp1。由于对计算框架来说,所有的数据过来,他都是不知道数据分布情况的,所以采样是并不可少的。

2、数据的分布符合社会学统计规则,贫富不均。倾斜的key不会太多,就像一个社会的富人不多,奇特的人不多一样。所以tmp1记录数会很少。把 tmp1和users做map join生成tmp2,把tmp2读到distribute file cache。这是一个map过程。

3、map读入users和log,假如记录来自log,则检查user_id是否在tmp2里,如果是,输出到本地文件a,否则生成<user_id,value>的key,value对,假如记录来自member,生成<user_id,value>的 key,value对,进入reduce阶段。

4、最终把a文件,把Stage3 reduce阶段输出的文件合并起写到hdfs。

 

如果确认业务需要这样倾斜的逻辑,考虑以下的优化方案:

1、对于join,在判断小表不大于1G的情况下,使用map join

2、对于group by或distinct,设定 hive.groupby.skewindata=true

3、尽量使用上述的SQL语句调节进行优化

 

原文地址:http://www.alidata.org/archives/2109

分享到:
评论

相关推荐

    hive数据倾斜问题总结笔记

    总结了hive中数据处理发生的倾斜问题,不同的原因对应不同的解决方案,比较具体可实操的方法

    数据倾斜.xmind

    此图总结了处理数据时产生数据倾斜的原因以及其解决思路和方法

    Hive大数据倾斜总结

    Hive查询生成多个map reduce job,一个map reduce job又有map,reduce,spill,shuffle,sort等多个阶段,所以针对hive查询的优化可以大致分为针对MR中单个步骤的优化,针对MR全局的优化以及针对整个查询的优化。...

    Hive总结.docx

    Hive原理/Hive SQL/Hive 函数/数据仓库分层和建模/Hive sql优化/数据倾斜

    【推荐】超全的大数据知识体系总结资料合集(23份).zip

    Spark数据倾斜及解决方案 Spark 面试八股文 Linux面试专题及答案 Kafka知识体系最强总结 JVM面试专题及答案 Java知识点复习 Java基础面试题 Hive知识体系保姆级总结 HBase 知识体系最强总结 Hadoop知识体系最强宝典 ...

    Hbase总结.docx

    资源回答:Rowkey设计时需要遵循三大原则?你们在使用hbase在使用遇到的问题?Hbase优化,你们是怎么做的?Hbase热点(数据倾斜)问题你们是怎么处理的?属于高频面试题

    如何写数据分析报告.docx

     第七、好的分析报告一定要有逻辑性,通常要遵照:1、发现问题--2、总结问题原因--3、解决如何写数据分析报告全文共11页,当前为第2页。如何写数据分析报告全文共11页,当前为第2页。问题,这样一个流程,逻辑性强...

    不平衡数据分类方法综述

    鉴于此,对现有的不平衡数据分类方法给出较为全面的梳理,从数据预处理层面、特征层面和分类算法层面总结和比较现有的不平衡数据分类方法,并结合当下机器学习的研究热点,探讨不平衡数据分类方法存在的挑战.最后展望不...

    如何写数据分析报告(1).docx

    数据分析报告 一、XX年上半年销售工作报告回顾 XX年是销售公司注册独立法人的第一年,也是全面贯彻实施矩阵式销售的第二年,总部领导及各分厂领导乃至集团全体职工都对销售工作给以了极大的支持和关注,政策调整及...

    web数据采集核心技术分享系列

    一个普通的验证码通常是一个图片,有几个字符,然后有一些背景色,前景色,杂点(俗称噪点),干扰线,字符可能会有倾斜,扭曲,粘连,变形,甚至手写体,破解的过程总结起来就是一句话,去除干扰,简化特征,匹配...

    大数据数仓全知识领域总结

    企业型数仓全知识体系介绍,包括大数据平台架构、数仓架构、数仓建模、常见模型、事实表、设计规范、表命名规范、开发规范、流程规范、元数据管理、维度表、三范式与反范式、数仓分层、数据治理、ETL、数据倾斜等

    Python-电信用户流失预测

    再处理类别不平衡的问题(正负样本数相差较多,易导致数据倾斜或不准确)。 四、模型使用与评估 使用机器学习模型与模型评估方式,用K折交叉验证计算方式,分别对逻辑回归,随机森林,AdaBoost,XGBoost模型进行评估...

    ORACLE重建索引总结

    1、索引重建是否有必要,一般看索引是否倾斜的严重,是否浪费了空间, 那应该如何才可以判断索引是否倾斜的严重,是否浪费了空间, 对索引进行结构分析(如下): SQL&gt;Analyze index index_name validate ...

    Hive性能优化

    本文来自于cnblogs,赘述了在工作中总结Hive的常用优化手段和在工作中使用Hive出现的问题。...sum,count,max,min等UDAF,不怕数据倾斜问题,hadoop在map端的汇总合并优化,使数据倾斜不成问题。count(distin

    大数据框架(HADOOP、HIVE、HBASE)优化和简历项目编写(视频+讲义+笔记)

    07_Hive中高级优化及数据倾斜处理(一) 08_Hive中高级优化及数据倾斜处理(二 09_Hive中groupBy数据倾斜面试详解及HBase 性能优化详解 10_大数据项目简历编写指导及HADOOP 项目业务需求补充说明

    小纪汗煤矿抗采动变形试验房变形规律研究

    对观测数据进行总结、分析,研究试验房的变形规律,结果表明:按照该抗变形标准修建的建筑物至少可以抵抗最大下沉量1 500 mm、倾斜7.7 mm/m、水平拉伸变形量10.15 mm/m和水平压缩变形量-9.15 mm/m的变形,此次抗变形试验...

    基于STM32的智能平衡小车控制系统设计.pdf

    为了满足现代智能化出行需求,提高自平衡小车控制系统的智能化水平,以STM32F103C8T6单片机作为控制核心,采用陀螺仪、加速度计和霍尔传感器分别测量小车车体的倾斜角度、加速度和速度,利用超声波测距模块检测小车与...

    工作面瓦斯涌出量预测研究现状及发展趋势

    提出针对典型工作面建立预测方法(如急倾斜特厚煤层水平分层开采工作面瓦斯涌出量预测),改进瓦斯含量等基础数据测定工艺,建立综合考虑影响工作面瓦斯涌出的主控因素及其耦合关系的预测方法,这是未来工作面瓦斯涌出量...

    Hadoop面试题总结(五)——优化问题

      (1)数据倾斜   (2)map和reduce数设置不合理   (3)reduce等待过久   (4)小文件过多   (5)大量的不可分块的超大文件   (6)spill次数过多   (7)merge次数过多等 2、MapReduce优化方法(☆☆☆☆...

Global site tag (gtag.js) - Google Analytics