數(shù)據(jù)傾斜指mapreduce計算架構(gòu)或flink等流式計算平臺下,在進行計算時,發(fā)生的數(shù)據(jù)操作卡在某一個子計算任務(wù)而導(dǎo)致整個任務(wù)被卡住的現(xiàn)象。例如寫hive SQL計算指標(biāo)時,發(fā)現(xiàn)數(shù)據(jù)從1%到99%很快,確一直卡在99%很長一段時間而無法完成任務(wù)。
實際上,發(fā)生這樣的原因是,在計算一條SQL的時候,某個任務(wù)被分配的key太多了。從而導(dǎo)致,其他任務(wù)很快完成任務(wù),但是某個任務(wù)確一直在計算,造成『一人累死,其他人閑死』的情況。
什么是map任務(wù)?什么是recude任務(wù)呢?
我們知道hive的底層是通過HDFS將文件數(shù)據(jù)存在磁盤上,數(shù)據(jù)以key、value的形式存儲,而map操作相當(dāng)于將把key、value鍵值對讀取出來,重新組合。然后將整理好的數(shù)據(jù),交給recude,reduce進行聚合計算。
舉個例子,如下數(shù)據(jù):(HDFS文件存儲數(shù)據(jù)時,存在行存儲和列存儲兩種,下面以列存儲為例)
HDFS中存儲文件的格式如下:
(0,"hive spark hive hbase" ) (21,"hadoop hive spark hive" ) (39,"sqoop flume scala scala" )
map操作將對HDFS文件進行分隔,并將每一行分成一個的<key,value>值(初始的k值是根據(jù)偏移量來的),然后在將<key,value>值,轉(zhuǎn)成如下的格式,并存入緩存中:
(hive,1),(spark,1),(hive,1),(hbase,1);
(hadoop,1),(hive,1),(spark,1), (hive,1);
(sqoop,1),(flume,1),(scala,1), (scala,1);
map操作將不同分區(qū)中的key值進行整合排序,存放到一個集合當(dāng)中,格式如下:
(hive,[1,1,1,1]),(spark,[1,1]),(hbase,[1]),(hadoop,[1]),(sqoop,[1]),(flume,[1]),(scala,[1,1])
隨后,Reduce任務(wù)先處理多個Map任務(wù)的輸出結(jié)果,再根據(jù)分區(qū)將其分配到不同的Reduce節(jié)點上(這個過程就是shuffle);Reduce任務(wù)對多個Map的輸出結(jié)果進行合并、排序、計算,生成新的 (k,v) 值,具體如下:
(hive,4),(spark,2), (scala,2) ,(hbase,1),(hadoop,1),(sqoop,1),(flume,1)
Reduce任務(wù)會將上一步輸出的<k,v>寫到HDFS中,生成文件。
數(shù)據(jù)傾斜一般都發(fā)生在reduce階段。
reduce階段最容易發(fā)生傾斜的操作是join和count distinct
下面列舉幾個常見的hive數(shù)據(jù)傾斜場景,和其對應(yīng)解決方案:
在上報的日志信息中,通常會出現(xiàn)信息丟失的情況,如果用上報缺失的字段去關(guān)聯(lián)相關(guān)字段時就會出現(xiàn)數(shù)據(jù)傾斜的問題。
案例:日志中的user_id上報缺失,如果取其中的user_id和用戶表的user_id進行關(guān)聯(lián)的時候就會出現(xiàn)數(shù)據(jù)傾斜。
解決辦法: 數(shù)據(jù)傾斜主要原因是join的key值發(fā)生傾斜,key值包含很多空值或是異常值,通常的做法是,對空值或者異常值賦一個隨機的值來分散key。
select * from log a
left join user b
on
case when (a.user_id is null or a.user_id = '-' or user_id='0')
--空值和異常值處理
then
concat('sql_hive',rand()) else a.user_id end = b.user_id
在hive SQL的join操作中,mr過程是按照join的key進行分發(fā),而在join左邊的表的數(shù)據(jù)會首先被讀進內(nèi)存,如果左邊表的key相對分散,讀入內(nèi)存的數(shù)據(jù)會比較小,join任務(wù)就會執(zhí)行的比較快;如果左邊的key比較集中并且數(shù)據(jù)量比較大時,數(shù)據(jù)傾斜就會比較嚴(yán)重,執(zhí)行時間將會增加。
經(jīng)驗總結(jié):為了能夠避免數(shù)據(jù)傾斜現(xiàn)象,通常將數(shù)據(jù)量小的表放在join的左邊,此外,還需要使用map join讓小維度的表先進內(nèi)存,在map完成reduce操作。
SQL操作:/*
+MAPJOIN(smallTable)
*/
Set hive.auto.convert.join=true
Set hive.mapjoin.smalltable.filesize=25000000
select /*+MAPJOIN(b)*/
a.key,a.value
from a
join b on a.key = b.key
-- a為大表,b為小表
上面操作主要是將小表全部讀入內(nèi)存中,在map階段大表的每個map和小表進行匹配,節(jié)省了reduce階段的時間,提高了數(shù)據(jù)執(zhí)行效率。
情況一:Map階段輸出的key數(shù)量上,導(dǎo)致reduce階段的reduce數(shù)量為1
案例:日志表中的user_id和用戶表關(guān)聯(lián),user表上有500W+條記錄,把user分發(fā)到所有的map開銷很大,并且map join不支持大表操作。用普通的join操作,數(shù)據(jù)傾斜會產(chǎn)生。
解決辦法:這類問題產(chǎn)生的根本原因就是數(shù)據(jù)業(yè)務(wù)特性強,兩個表都是大表。因此我們可以針對性的削減業(yè)務(wù)過程,比如log表中user_id有上百萬個,但是每天會員的uv不會太多,有交易的會員不會很多,有點擊的會員數(shù)不會很多等,在業(yè)務(wù)過程削減冗余的數(shù)據(jù)量,避免數(shù)據(jù)傾斜的發(fā)生。
-- 思路:先過濾出需要被使用的唯一的user_id,再計算相關(guān)指標(biāo)
select /*MAPJOIN(b)*/ from log a
left join
(
select /*MAPJOIN(b)*/ b1.*
from
(select distinct user_id from log) b
join
user b1 on b.user_id = b1.user_id
) a1
on a.user_id = a1.user_id;
情況二:Map輸出key分布不均勻,商品信息表的key對應(yīng)大量的value,導(dǎo)致數(shù)據(jù)傾斜。
案例:商品信息表a中的信息填充到商品瀏覽日志表b中,使用商品id進行關(guān)聯(lián)。但是某些人買商品瀏覽量較大,造成數(shù)據(jù)偏移。
解決辦法:熱點數(shù)據(jù)和非熱點數(shù)據(jù)拆分處理
select * from (
select /*MAPJOIN(i)*/
a.id, a.time, a.amount, b.name, b.loc, b.cat
from
a
left join
(select * from a where uid in ('1001','1002')) as b -- 熱點子表
on a.uid = b.uid
where a.uid in('1001','1002') -- 熱點數(shù)據(jù)
)
union all
select
a.id, a.time, a.amount, b.name, b.loc, b.cat
from
a
left join
b
on a.uid = b.uid
where a.uid is not in('1001','1002') -- 非熱點數(shù)據(jù)
場景:在多個維度的同一個度量的count distinct
案例:根據(jù)月份和性別,統(tǒng)計買家的1月份男顧客數(shù),女顧客數(shù)
原始方案:
SELECT
seller,
COUNT(DISTINCT CASE WHEN month=1 AND sex = 'M' THEN buyer END) M01_BUYER_CNT,
COUNT(DISTINCT CASE WHEN month=1 AND sex = 'F' THEN buyer END) M01_FEMALE_BUYER_CNT
FROM
SHOP_ORDER
where
log_date = '20220301'
group by
seller
改造方案:
把DISTINCT用到的buyer,也加到group by統(tǒng)計上,然后再進行業(yè)務(wù)計算
with t1 as( -- 第一步:group by統(tǒng)計,結(jié)果存到t1中
select
buyer,
seller,
count(case when month=1 and sex = 'M' then buyer end) s_M01_male_buyer_cnt,
count(case when month=1 and sex = 'F' then buyer end) s_M01_female_buyer_cnt
from
SHOP_ORDER
where
log_date = '20220301'
group by
seller,
buyer
)
select -- 聚合目標(biāo)指標(biāo)
seller,
sum(case when s_M01_male_buyer_cnt>0 then 1 else 0 end) as s_M01_male_buyer_cnt,
sum(case when s_M01_female_buyer_cnt>0 then 1 else 0 end) as s_M01_female_buyer_cnt
from
t1
group by
seller
我們平時編寫時需要記住以下幾點:
使用分區(qū)剪裁、列剪裁,分區(qū)一定要加
少用 COUNT DISTINCT,group by 代替 distinct
是否存在多對多的關(guān)聯(lián)
連接表時使用相同的關(guān)鍵詞,這樣只會產(chǎn)生一個 job
減少每個階段的數(shù)據(jù)量,只選出需要的,在 join 表前就進行過濾
大表放后面
謂詞下推:where 謂詞邏輯都盡可能提前執(zhí)行,減少下游處理的數(shù)據(jù)量
暫時沒有評論,有什么想聊的?
一、引言:多分類模型性能優(yōu)化的重要性與挑戰(zhàn) 1.1 多分類模型在現(xiàn)代應(yīng)用中的廣泛性 在當(dāng)今的數(shù)字化時代,多分類模型已成為眾多領(lǐng)域不可或缺的工具。在 1.1.1 電商平臺的商
...一、引言與概述 1.1 大模型概念解析 1.1.1 什么是大型模型 大型模型,在人工智能領(lǐng)域,通常指的是那些參數(shù)規(guī)模龐大、計算復(fù)雜度高的深度學(xué)習(xí)模型。這些模型能夠處理海量數(shù)
...一、引言:AI寫PPT軟件的興起與疑問 1.1 AI技術(shù)在辦公領(lǐng)域的滲透 1.1.1 AI技術(shù)發(fā)展現(xiàn)狀簡述 近年來,人工智能(AI)技術(shù)以前所未有的速度發(fā)展,從深度學(xué)習(xí)、自然語言處理到
...?? 微信聊 -->
銷售溝通:17190186096(微信同號)
售前電話:15050465281
微信聊 -->
阿帥: 我們經(jīng)常會遇到表格內(nèi)容顯示不完整的問題。 回復(fù)
理理: 使用自動換行功能,以及利用條件格式和數(shù)據(jù)分析工具等。回復(fù)