您好,登錄后才能下訂單哦!
set hive.fetch.task.conversion=more(默認(rèn))
1
Fetch 抓取是指,Hive 中對某些情況的查詢可以不必使用 MapReduce 計算。
該屬性設(shè)置為 more 以后,在全局查找、字段查找、limit 查找等都不走 MapReduce。 設(shè)置為none后所有類型的查找語句都要走M(jìn)apReduce;
set hive.exec.mode.local.auto=true(開啟本地模式)
1
Hive 可以通過本地模式在單臺機(jī)器上 處理所有的任務(wù)。對于小數(shù)據(jù)集,執(zhí)行時間可以明顯被縮短
1.開啟本地模式后需要設(shè)置local mr的最大輸入數(shù)據(jù)量,當(dāng)數(shù)據(jù)量小于這個值時采用local mr的方式
set hive.exec.mode.local.auto.inputbytes.max=134217728(默認(rèn))
1
2.開啟本地模式后需要設(shè)置local mr的最大輸入文件個數(shù),當(dāng)數(shù)據(jù)量小于這個值時采用local mr的方式
set hive.exec.mode.local.auto.input.files.max=4(默認(rèn))
1
注: 新版的 hive 已經(jīng)對小表 JOIN 大表和大表 JOIN 小表進(jìn)行了優(yōu)化。小表放在左邊和右邊已經(jīng)沒有明顯區(qū)別
當(dāng)一個表內(nèi)有許多空值時會導(dǎo)致MapReduce過程中,空成為一個key值,對應(yīng)的會有大量的value值, 而一個key的value會一起到達(dá)reduce造成內(nèi)存不足;所以要想辦法過濾這些空值.
1.通過查詢所有不為空的結(jié)果
insert overwrite table jointable select n.* from
(select * from nullidtable where id is not null ) n left join ori o on n.id = o.id;
12
2.查詢出空值并給其賦上隨機(jī)數(shù),避免了key值為空
insert overwrite table jointable
select n.* from nullidtable n full join ori o on
case when n.id is null then concat('hive', rand()) else n.id end = o.id;
123
注:此方法可以解決數(shù)據(jù)傾斜的問題
如果不指定 MapJoin 或者不符合 MapJoin 的條件,那么 Hive 解析器會將 Join 操作轉(zhuǎn)換成 Common Join,即:在 Reduce 階段完成 join。容易發(fā)生數(shù)據(jù)傾斜??梢杂?MapJoin 把小 表全部加載到內(nèi)存在 map 端進(jìn)行 join,避免 reducer 處理。
設(shè)置MapJoin
set hive.auto.convert.join = true(默認(rèn))
1
大表小表的閥門值設(shè)置(默認(rèn)25M以下認(rèn)為是小表):
set hive.mapjoin.smalltable.filesize=25000000;
1
默認(rèn)情況下,Map 階段同一 Key 數(shù)據(jù)分發(fā)給一個 reduce,當(dāng)一個 key 數(shù)據(jù)過大時就傾斜了并不是所有聚合都在reduce端完成,很多聚合操作都可以現(xiàn)在Map端進(jìn)行部分聚合,最后在Reduce段得到結(jié)果
開啟Map端聚合參數(shù)設(shè)置
是否在Map段進(jìn)行聚合,默認(rèn)為true
hive.map.aggr = true
1
在Map端進(jìn)行聚合操作的條目數(shù)
hive.groupby.mapaggr.checkinterval = 100000
1
有數(shù)據(jù)傾斜的時候進(jìn)行負(fù)載均衡(默認(rèn)是false)
hive.groupby.skewindata = true
1
注: 當(dāng)選項設(shè)定為 true,生成的查詢計劃會有兩個 MR Job。第一個 MR Job 中,Map 的輸出結(jié)果會隨機(jī)分布到 Reduce 中,每個 Reduce 做部分聚合操作,并輸出結(jié)果,這樣處理的結(jié)果是相同的 Group By Key 有可能被分發(fā)到不同的 Reduce 中,從而達(dá)到負(fù)載均衡的目的;第二個 MR Job 再根據(jù)預(yù)處理的數(shù)據(jù)結(jié)果按照 Group By Key 分布到 Reduce 中(這個過程可以 保證相同的 Group By Key 被分布到同一個 Reduce 中),最后完成最終的聚合操作。
Count Distinct是使用了一個mapreduce ,當(dāng)數(shù)據(jù)較少時無影響當(dāng)數(shù)據(jù)較大時 只使用一個MapReduce將很難完成job。這是需要用到分組 Group BY 會使用2個MapReduce完成因為設(shè)置了 set mapreduce.job.reduces = 5; 所以第一個MapReduce的過程是通過一個map和5個reduce來完成這樣減輕了reduce的負(fù)載, 雖然會多用一個 Job 來完成,但在數(shù)據(jù)量大的情況下,這個絕對是值得的。
實例:
1.測試先關(guān)聯(lián)兩張表,再用 where 條件過濾
hive (default)> select o.id from bigtable bjoin ori o on o.id = b.idwhere o.id <= 10;
1
2.通過子查詢后,再關(guān)聯(lián)表
hive (default)> select b.id from bigtable b join (select id from ori where id <= 10 ) o on b.id = o.id;
1
關(guān)系型數(shù)據(jù)庫中,對分區(qū)表 Insert 數(shù)據(jù)時候,數(shù)據(jù)庫自動會根據(jù)分區(qū)字段的值,將數(shù)據(jù)插入到相應(yīng)的分區(qū)中,Hive 中也提供了類似的機(jī)制,即動態(tài)分區(qū)(Dynamic Partition),只不過,使用 Hive 的動態(tài)分區(qū),需要進(jìn)行相應(yīng)的配置。
首先要設(shè)置的屬性
set hive.exec.dynamic.partition = true;
set hive.exec.dynamic.partition.mode = nonstrict;
set hive.exec.max.dynamic.partitions = 1000;
set hive.exec.max.dynamic.partitions.pernode = 100;
set hive.exec.max.created.files = 100000;
set hive.error.on.empty.partition = false;
123456
模擬動態(tài)分區(qū)
insert overwrite table ori_partitioned_target partition (p_time)
select id, time, uid, keyword, url_rank, click_num, click_url, p_time from ori_partitioned;
12
設(shè)置切片值
set mapreduce.input.fileinputformat.split.maxsize=???
1
在 map 執(zhí)行前合并小文件,減少 map 數(shù):CombineHiveInputFormat 具有對小文件進(jìn)行
合并的功能(系統(tǒng)默認(rèn)的格式)。HiveInputFormat 沒有對小文件合并功能。
set hive.input.format= org.apache.hadoop.hive.ql.io.CombineHiveInputFormat;
1
set mapreduce.job.maps =???
1
1.調(diào)整reduce的個數(shù)方法一
每個Reduce處理的數(shù)據(jù)默認(rèn)是256MB
hive.exec.reducers.bytes.per.reducer=256000000
1
每個任務(wù)最大的reduce數(shù),默認(rèn)為1009
hive.exec.reducers.max=1009
1
計算reduce數(shù)的公式
N=min(參數(shù)2,總輸入數(shù)據(jù)量/參數(shù)1)
1
2.調(diào)整reduce個數(shù)的方法二
set mapreduce.job.reduces=???
1
3.reduce個數(shù)不是越多越好
通過設(shè)置參數(shù) hive.exec.parallel 值為 true,就可以開啟并發(fā)執(zhí)行。不過,在共享集群中,需要注意下,如果 job 中并行階段增多,那么集群利用率就會增加。
set hive.exec.parallel=true; //打開任務(wù)并行執(zhí)行
set hive.exec.parallel.thread.number=16; //同一個 sql 允許最大并行度,默認(rèn)為 8。
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。