溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

Hive參數(shù)配置如何調(diào)優(yōu)

發(fā)布時(shí)間:2021-12-10 14:01:11 來(lái)源:億速云 閱讀:194 作者:小新 欄目:大數(shù)據(jù)

這篇文章主要介紹了Hive參數(shù)配置如何調(diào)優(yōu),具有一定借鑒價(jià)值,感興趣的朋友可以參考下,希望大家閱讀完這篇文章之后大有收獲,下面讓小編帶著大家一起了解一下。

Hive參數(shù)配置調(diào)優(yōu)

  hive通過(guò)將查詢劃分成一個(gè)或多個(gè)MapReduce任務(wù)達(dá)到并行處理的目的。每個(gè)任務(wù)都可能具有多個(gè)mapper和reducer任務(wù),其中至少有一些是可以并行執(zhí)行的。

確定最佳的mapper個(gè)數(shù)和reducer個(gè)數(shù)取決于多個(gè)變量,例如輸入的數(shù)據(jù)量大小以及對(duì)這些數(shù)據(jù)執(zhí)行的操作類型等。

  保持平衡性是很有必要的,對(duì)于Spark/Hadoop這樣的大數(shù)據(jù)系統(tǒng)來(lái)講,數(shù)據(jù)量大并不可怕,可怕的是數(shù)據(jù)傾斜,每個(gè)節(jié)點(diǎn)處理的運(yùn)算不均衡。

如果有太多的mapper或reducer任務(wù),就會(huì)導(dǎo)致啟動(dòng)階段、調(diào)度和運(yùn)行job過(guò)程中產(chǎn)生過(guò)多的開(kāi)銷;而如果設(shè)置的數(shù)量太少,那就有可能沒(méi)充分利用好集群內(nèi)在并行性。

mapred.reduce.tasks 
所提交 Job 的 reduer 的個(gè)數(shù),使用 Hadoop Client 的配置。 
1

hive.mapred.mode 
Map/Redure 模式,如果設(shè)置為 strict,將禁止3中類型的查詢:
1.分區(qū)表的where篩選條件必須含有分區(qū)字段;
2.對(duì)使用了order by語(yǔ)句的查詢,必須使用limit語(yǔ)句(order by語(yǔ)句為執(zhí)行排序會(huì)將所有的結(jié)果集數(shù)據(jù)分發(fā)到同一個(gè)reducer中進(jìn)行處理,增加limit語(yǔ)句可以防止reducer額外執(zhí)行很長(zhǎng)時(shí)間)
3.限制笛卡兒積的查詢,就是有where語(yǔ)句,而沒(méi)有on語(yǔ)句。 
'nonstrict'

hive.merge.mapfiles 
在Map-only的任務(wù)結(jié)束時(shí)合并小文件
是否開(kāi)啟合并 Map 端小文件,當(dāng)Hive輸入由很多個(gè)小文件組成,由于每個(gè)小文件都會(huì)啟動(dòng)一個(gè)map任務(wù),如果文件過(guò)小,會(huì)使得map任務(wù)啟動(dòng)和初始化的時(shí)間大于邏輯處理的時(shí)間,造成資源浪費(fèi),甚至OOM。為此,當(dāng)我們啟動(dòng)一個(gè)任務(wù),發(fā)現(xiàn)輸入數(shù)據(jù)量小但任務(wù)數(shù)量多時(shí),需要注意在Map前端進(jìn)行輸入合并。當(dāng)然,在我們向一個(gè)表寫數(shù)據(jù)時(shí),也需要注意輸出文件大小
true

hive.merge.mapredfiles 
是否開(kāi)啟合并 Map/Reduce 小文件,即是否在Map-Reduce的任務(wù)結(jié)束時(shí)合并小文件
false

hive.exec.parallel 
是否開(kāi)啟 map/reduce job的并發(fā)提交。 
false

hive.limit.optimize.enable
當(dāng)使用LIMIT語(yǔ)句時(shí),其可以對(duì)數(shù)據(jù)源進(jìn)行抽樣,避免執(zhí)行整個(gè)查詢語(yǔ)句,然后再返回部分結(jié)果
但這個(gè)功能有個(gè)缺點(diǎn),有可能輸入中有用的數(shù)據(jù)永遠(yuǎn)不會(huì)被處理到。

hive.exec.reducers.bytes.per.reducer 
每一個(gè) reducer 的平均負(fù)載字節(jié)數(shù)。 
1000000000

hive.exec.reducers.max 
設(shè)置reducer個(gè)數(shù)的上限,可以阻止某個(gè)查詢消耗過(guò)多的reducer資源,對(duì)這個(gè)屬性值大小的設(shè)定,一個(gè)建議的計(jì)算公式如下:
(集群總Reduce槽位個(gè)數(shù)*1.5) / (執(zhí)行中查詢的平均個(gè)數(shù))
1.5倍數(shù)是一個(gè)經(jīng)驗(yàn)系數(shù),用于防止未充分利用集群的情況。 
999

hive.exec.rowoffset
hive提供了2種虛擬列:一種用于將要進(jìn)行劃分的輸入文件名,另一種用于文件中的塊內(nèi)偏移量。當(dāng)hive產(chǎn)生了非預(yù)期的或null的返回結(jié)果時(shí),可以通過(guò)這些虛擬列診斷查詢。通過(guò)這些“字段”,用戶可以查看到哪個(gè)文件甚至哪些數(shù)據(jù)導(dǎo)致出現(xiàn)問(wèn)題:
SELECT 
INPUT_FILE_NAME,
BLOCK_OFFSET_INSIDE_FILE,
ROW_OFFSET_INSIDE_BLOCK,
line 
FROM hive_text 
WHERE line LIKE '%hive%' LIMIT 2;
true

hive.multigroupby.singlemr
一個(gè)特別的優(yōu)化,是否將查詢中的多個(gè)group by操作組裝到單個(gè)MapReduce任務(wù)中。
false

hive.exec.dynamic.partition 
是否打開(kāi)動(dòng)態(tài)分區(qū)。 
false

hive.exec.dynamic.partition.mode 
打開(kāi)動(dòng)態(tài)分區(qū)后,動(dòng)態(tài)分區(qū)的模式,有 strict 和 nonstrict 兩個(gè)值可選,strict 要求至少包含一個(gè)靜態(tài)分區(qū)列,nonstrict 則無(wú)此要求。 
strict

hive.exec.max.dynamic.partitions 
所允許的最大的動(dòng)態(tài)分區(qū)的個(gè)數(shù)。 
1000

hive.exec.max.dynamic.partitions.pernode 
單個(gè) reduce 結(jié)點(diǎn)所允許的最大的動(dòng)態(tài)分區(qū)的個(gè)數(shù)。 
100

hive.exec.default.partition.name 
默認(rèn)的動(dòng)態(tài)分區(qū)的名稱,當(dāng)動(dòng)態(tài)分區(qū)列為''或者null時(shí),使用此名稱。'' 
'__HIVE_DEFAULT_PARTITION__'

hive.exec.mode.local.auto 
決定 Hive 是否應(yīng)該自動(dòng)地根據(jù)輸入文件大小,在本地運(yùn)行(在GateWay運(yùn)行) 
true

hive.exec.mode.local.auto.inputbytes.max 
如果 hive.exec.mode.local.auto 為 true,當(dāng)輸入文件大小小于此閾值時(shí)可以自動(dòng)在本地模式運(yùn)行,默認(rèn)是 128兆。 
134217728L

hive.exec.mode.local.auto.tasks.max 
如果 hive.exec.mode.local.auto 為 true,當(dāng) Hive Tasks(Hadoop Jobs)小于此閾值時(shí),可以自動(dòng)在本地模式運(yùn)行。 
4

hive.auto.convert.join 
是否根據(jù)輸入小表的大小,自動(dòng)將 Reduce 端的 Common Join 轉(zhuǎn)化為 Map Join,從而加快大表關(guān)聯(lián)小表的 Join 速度。 
false

hive.mapred.local.mem 
Mapper/Reducer 在本地模式的最大內(nèi)存量,以字節(jié)為單位,0為不限制。 
0

hive.exec.scratchdir 
HDFS路徑,用于存儲(chǔ)不同 map/reduce 階段的執(zhí)行計(jì)劃和這些階段的中間輸出結(jié)果。 
/tmp/<user.name>/hive

hive.metastore.warehouse.dir 
Hive 默認(rèn)的數(shù)據(jù)文件存儲(chǔ)路徑,通常為 HDFS 可寫的路徑。 
"

hive.groupby.skewindata 
決定 group by 操作是否支持傾斜的數(shù)據(jù)。 
false


hive.default.fileformat 
Hive 默認(rèn)的輸出文件格式,與創(chuàng)建表時(shí)所指定的相同,可選項(xiàng)為 'TextFile' 、 'SequenceFile' 或者 'RCFile'。 
'TextFile'

hive.security.authorization.enabled 
Hive 是否開(kāi)啟權(quán)限認(rèn)證。 
false

hive.exec.plan 
Hive 執(zhí)行計(jì)劃的路徑,會(huì)在程序中自動(dòng)進(jìn)行設(shè)置 
null

hive.exec.submitviachild 
決定 map/reduce Job 是否應(yīng)該使用各自獨(dú)立的 JVM 進(jìn)行提交(Child進(jìn)程),默認(rèn)情況下,使用與 HQL compiler 相同的 JVM 進(jìn)行提交。 
false

hive.exec.script.maxerrsize 
通過(guò) TRANSFROM/MAP/REDUCE 所執(zhí)行的用戶腳本所允許的最大的序列化錯(cuò)誤數(shù)。 
100000

hive.exec.script.allow.partial.consumption 
是否允許腳本只處理部分?jǐn)?shù)據(jù),如果設(shè)置為 true ,因 broken pipe 等造成的數(shù)據(jù)未處理完成將視為正常。 
false

hive.exec.compress.output 
決定查詢中最后一個(gè) map/reduce job 的輸出是否為壓縮格式。 
false

hive.exec.compress.intermediate 
決定查詢的中間 map/reduce job (中間 stage)的輸出是否為壓縮格式。 
false

hive.intermediate.compression.codec 
中間 map/reduce job 的壓縮編解碼器的類名(一個(gè)壓縮編解碼器可能包含多種壓縮類型),該值可能在程序中被自動(dòng)設(shè)置。 


hive.intermediate.compression.type 
中間 map/reduce job 的壓縮類型,如 "BLOCK" "RECORD"。 

hive.exec.pre.hooks 
語(yǔ)句層面,整條 HQL 語(yǔ)句在執(zhí)行前的 hook 類名。 
"

hive.exec.post.hooks 
語(yǔ)句層面,整條 HQL 語(yǔ)句在執(zhí)行完成后的 hook 類名。 


hive.exec.parallel.thread.number 
并發(fā)提交時(shí)的并發(fā)線程的個(gè)數(shù)。 
8

hive.mapred.reduce.tasks.speculative.execution 
是否開(kāi)啟 reducer 的推測(cè)執(zhí)行,與 mapred.reduce.tasks.speculative.execution 作用相同。 
false

hive.exec.counters.pull.interval 
客戶端拉取 progress counters 的時(shí)間,以毫秒為單位。 
1000L

hadoop.bin.path 
Hadoop Client 可執(zhí)行腳本的路徑,該路徑用于通過(guò)單獨(dú)的 JVM 提交 job,使用 Hadoop Client 的配置。 
$HADOOP_HOME/bin/hadoop

hadoop.config.dir 
Hadoop Client 配置文件的路徑,使用 Hadoop Client 的配置。 
$HADOOP_HOME/conf

fs.default.name 
Namenode 的 URL,使用 Hadoop Client 的配置。 
file:///

map.input.file 
Map 的輸入文件,使用 Hadoop Client 的配置。 
null

mapred.input.dir 
Map 的輸入目錄,使用 Hadoop Client 的配置。 
null

mapred.input.dir.recursive 
輸入目錄是否可遞歸嵌套,使用 Hadoop Client 的配置。 
false

mapred.job.tracker 
Job Tracker 的 URL,使用 Hadoop Client 的配置,如果這個(gè)配置設(shè)置為 'local',將使用本地模式。 
local

mapred.job.name 
Map/Reduce 的 job 名稱,如果沒(méi)有設(shè)置,則使用生成的 job name,使用 Hadoop Client 的配置。 
null

mapred.reduce.tasks.speculative.execution 
Map/Reduce 推測(cè)執(zhí)行,使用 Hadoop Client 的配置。 
null

hive.metastore.metadb.dir 
Hive 元數(shù)據(jù)庫(kù)所在路徑。 
"

hive.metastore.uris 
Hive 元數(shù)據(jù)的 URI,多個(gè) thrift://地址,以英文逗號(hào)分隔。 
"

hive.metastore.connect.retries 
連接到 Thrift 元數(shù)據(jù)服務(wù)的最大重試次數(shù)。 
3

javax.jdo.option.ConnectionPassword 
JDO 的連接密碼。 
"

hive.metastore.ds.connection.url.hook 
JDO 連接 URL Hook 的類名,該 Hook 用于獲得 JDO 元數(shù)據(jù)庫(kù)的連接字符串,為實(shí)現(xiàn)了 JDOConnectionURLHook 接口的類。 
"

javax.jdo.option.ConnectionURL 
元數(shù)據(jù)庫(kù)的連接 URL。 
"

hive.metastore.ds.retry.attempts 
當(dāng)沒(méi)有 JDO 數(shù)據(jù)連接錯(cuò)誤后,嘗試連接后臺(tái)數(shù)據(jù)存儲(chǔ)的最大次數(shù)。 
1

hive.metastore.ds.retry.interval 
每次嘗試連接后臺(tái)數(shù)據(jù)存儲(chǔ)的時(shí)間間隔,以毫秒為單位。 
1000

hive.metastore.force.reload.conf 
是否強(qiáng)制重新加載元數(shù)據(jù)配置,一但重新加載,該值就會(huì)被重置為 false。 
false

hive.metastore.server.min.threads 
Thrift 服務(wù)線程池的最小線程數(shù)。 
8

hive.metastore.server.max.threads 
Thrift 服務(wù)線程池的最大線程數(shù)。 
0x7fffffff

hive.metastore.server.tcp.keepalive 
Thrift 服務(wù)是否保持 TCP 連接。 
true

hive.metastore.archive.intermediate.original 
用于歸檔壓縮的原始中間目錄的后綴,這些目錄是什么并不重要,只要能夠避免沖突即可。 
'_INTERMEDIATE_ORIGINAL'

hive.metastore.archive.intermediate.archived 
用于歸檔壓縮的壓縮后的中間目錄的后綴,這些目錄是什么并不重要,只要能夠避免沖突即可。 
'_INTERMEDIATE_ARCHIVED'

hive.metastore.archive.intermediate.extracted 
用于歸檔壓縮的解壓后的中間目錄的后綴,這些目錄是什么并不重要,只要能夠避免沖突即可。 
'_INTERMEDIATE_EXTRACTED'

hive.cli.errors.ignore 
是否忽略錯(cuò)誤,對(duì)于包含多的 SQL 文件,可以忽略錯(cuò)誤的行,繼續(xù)執(zhí)行下一行。 
false

hive.session.id 
當(dāng)前會(huì)話的標(biāo)識(shí)符,格式為“用戶名_時(shí)間”用于記錄在 job conf 中,一般不予以手動(dòng)設(shè)置。 
"

hive.session.silent 
當(dāng)前會(huì)話是否在 silent 模式運(yùn)行。 如果不是 silent 模式,所以 info 級(jí)打在日志中的消息,都將以標(biāo)準(zhǔn)錯(cuò)誤流的形式輸出到控制臺(tái)。
false

hive.query.string 
當(dāng)前正在被執(zhí)行的查詢字符串。 
"

hive.query.id 
當(dāng)前正在被執(zhí)行的查詢的ID。 
"

hive.query.planid 
當(dāng)前正在被執(zhí)行的 map/reduce plan 的 ID。 
"

hive.jobname.length 
當(dāng)前 job name 的最大長(zhǎng)度,hive 會(huì)根據(jù)此長(zhǎng)度省略 job name 的中間部分。 
50

hive.jar.path 
通過(guò)單獨(dú)的 JVM 提交 job 時(shí),hive_cli.jar 所在的路徑 
"

hive.aux.jars.path 
各種由用戶自定義 UDF 和 SerDe 構(gòu)成的插件 jar 包所在的路徑。 
"

hive.added.files.path 
ADD FILE 所增加的文件的路徑。 
"

hive.added.jars.path 
ADD JAR 所增加的文件的路徑。 
"

hive.added.archives.path 
ADD ARCHIEVE 所增加的文件的路徑。 
"

hive.table.name 
當(dāng)前的 Hive 表的名稱,該配置將通過(guò) ScirptOperator 傳入到用戶腳本中。 
"

hive.partition.name 
當(dāng)前的 Hive 分區(qū)的名稱,該配置將通過(guò) ScriptOperator 傳入到用戶腳本中。 
"

hive.script.auto.progress 
腳本是否周期性地向 Job Tracker 發(fā)送心跳,以避免腳本執(zhí)行的時(shí)間過(guò)長(zhǎng),使 Job Tracker 認(rèn)為腳本已經(jīng)掛掉了。 
false

hive.script.operator.id.env.var 
用于識(shí)別 ScriptOperator ID 的環(huán)境變量的名稱。 
'HIVE_SCRIPT_OPERATOR_ID'

hive.alias 
當(dāng)前的 Hive 別名,該配置將通過(guò) ScriptOpertaor 傳入到用戶腳本中。 
"

hive.map.aggr 
決定是否可以在 Map 端進(jìn)行聚合操作 
true

hive.join.emit.interval 
Hive Join 操作的發(fā)射時(shí)間間隔,以毫秒為單位。 
1000

hive.join.cache.size 
Hive Join 操作的緩存大小,以字節(jié)為單位。 
25000

hive.mapjoin.bucket.cache.size 
Hive Map Join 桶的緩存大小,以字節(jié)為單位。 
100

hive.mapjoin.size.key 
Hive Map Join 每一行鍵的大小,以字節(jié)為單位。 
10000

hive.mapjoin.cache.numrows 
Hive Map Join 所緩存的行數(shù)。 
25000

hive.groupby.mapaggr.checkinterval 
對(duì)于 Group By 操作的 Map 聚合的檢測(cè)時(shí)間,以毫秒為單位。 
100000

hive.map.aggr.hash.percentmemory 
Hive Map 端聚合的哈稀存儲(chǔ)所占用虛擬機(jī)的內(nèi)存比例。 
0.5

hive.map.aggr.hash.min.reduction 
Hive Map 端聚合的哈稀存儲(chǔ)的最小 reduce 比例。 
0.5

hive.udtf.auto.progress 
Hive UDTF 是否周期性地報(bào)告心跳,當(dāng) UDTF 執(zhí)行時(shí)間較長(zhǎng)且不輸出行時(shí)有用。 
false

hive.fileformat.check 
Hive 是否檢查輸出的文件格式。 
true

hive.querylog.location 
Hive 實(shí)時(shí)查詢?nèi)罩舅诘哪夸?,如果該值為空,將不?chuàng)建實(shí)時(shí)的查詢?nèi)罩尽?nbsp;
'/tmp/$USER'

hive.script.serde 
Hive 用戶腳本的 SerDe。 
'org.apache.hadoop.hive.serde2.lazy.LazySimpleSerDe'

hive.script.recordreader 
Hive 用戶腳本的 RecordRedaer。 
'org.apache.hadoop.hive.ql.exec.TextRecordReader'

hive.script.recordwriter 
Hive 用戶腳本的 RecordWriter。 
'org.apache.hadoop.hive.ql.exec.TextRecordWriter'

hive.hwi.listen.host 
HWI 所綁定的 HOST 或者 IP。 
'0.0.0.0'

hive.hwi.listen.port 
HWI 所監(jiān)聽(tīng)的 HTTP 端口。 
9999

hive.hwi.war.file 
HWI 的 war 文件所在的路徑。 
$HWI_WAR_FILE

hive.test.mode 
是否以測(cè)試模式運(yùn)行 Hive 
false

hive.test.mode.prefix 
Hive 測(cè)試模式的前綴。 
'test_'

hive.test.mode.samplefreq 
Hive 測(cè)試模式取樣的頻率,即每秒鐘取樣的次數(shù)。 
32

hive.test.mode.nosamplelist 
Hive 測(cè)試模式取樣的排除列表,以逗號(hào)分隔。 
"

hive.merge.size.per.task 
每個(gè)任務(wù)合并后文件的大小,根據(jù)此大小確定 reducer 的個(gè)數(shù),默認(rèn) 256 M。 
256000000

hive.merge.smallfiles.avgsize 
需要合并的小文件群的平均大小,默認(rèn) 16 M。 
16000000

hive.optimize.skewjoin 
是否優(yōu)化數(shù)據(jù)傾斜的 Join,對(duì)于傾斜的 Join 會(huì)開(kāi)啟新的 Map/Reduce Job 處理。 
false

hive.skewjoin.key 
傾斜鍵數(shù)目閾值,超過(guò)此值則判定為一個(gè)傾斜的 Join 查詢。 
1000000

hive.skewjoin.mapjoin.map.tasks 
處理數(shù)據(jù)傾斜的 Map Join 的 Map 數(shù)上限。 
10000

hive.skewjoin.mapjoin.min.split 
處理數(shù)據(jù)傾斜的 Map Join 的最小數(shù)據(jù)切分大小,以字節(jié)為單位,默認(rèn)為32M。 
33554432

mapred.min.split.size 
Map Reduce Job 的最小輸入切分大小,與 Hadoop Client 使用相同的配置。 
1

hive.mergejob.maponly 
是否啟用 Map Only 的合并 Job。 
true

hive.heartbeat.interval 
Hive Job 的心跳間隔,以毫秒為單位。 
1000

hive.mapjoin.maxsize 
Map Join 所處理的最大的行數(shù)。超過(guò)此行數(shù),Map Join進(jìn)程會(huì)異常退出。 
1000000

hive.hashtable.initialCapacity 
Hive 的 Map Join 會(huì)將小表 dump 到一個(gè)內(nèi)存的 HashTable 中,該 HashTable 的初始大小由此參數(shù)指定。 
100000

hive.hashtable.loadfactor 
Hive 的 Map Join 會(huì)將小表 dump 到一個(gè)內(nèi)存的 HashTable 中,該 HashTable 的負(fù)載因子由此參數(shù)指定。 
0.75

hive.mapjoin.followby.gby.localtask.max.memory.usage 
MapJoinOperator后面跟隨GroupByOperator時(shí),內(nèi)存的最大使用比例 
0.55

hive.mapjoin.localtask.max.memory.usage 
Map Join 的本地任務(wù)使用堆內(nèi)存的最大比例 
0.9

hive.mapjoin.localtask.timeout 
Map Join 本地任務(wù)超時(shí),淘寶版特有特性 
600000

hive.mapjoin.check.memory.rows 
設(shè)置每多少行檢測(cè)一次內(nèi)存的大小,如果超過(guò) hive.mapjoin.localtask.max.memory.usage 則會(huì)異常退出,Map Join 失敗。 
100000

hive.debug.localtask 
是否調(diào)試本地任務(wù),目前該參數(shù)沒(méi)有生效 
false

hive.task.progress 
是否開(kāi)啟 counters ,以記錄 Job 執(zhí)行的進(jìn)度,同時(shí)客戶端也會(huì)拉取進(jìn)度 counters。 
false

hive.input.format 
Hive 的輸入 InputFormat。 
默認(rèn)是org.apache.hadoop.hive.ql.io.HiveInputFormat,其他還有org.apache.hadoop.hive.ql.io.CombineHiveInputFormat

hive.enforce.bucketing 
是否啟用強(qiáng)制 bucketing。 
false

hive.enforce.sorting 
是否啟用強(qiáng)制排序。 
false

hive.mapred.partitioner 
Hive 的 Partitioner 類。 
'org.apache.hadoop.hive.ql.io.DefaultHivePartitioner'

hive.exec.script.trust 
Hive Script Operator For trust 
false

hive.hadoop.supports.splittable.combineinputformat 
是否支持可切分的 CombieInputFormat 
false

hive.optimize.cp 
是否優(yōu)化列剪枝。 
true

hive.optimize.ppd 
是否優(yōu)化謂詞下推。 
true

hive.optimize.groupby 
是否優(yōu)化 group by。 
true

hive.optimize.bucketmapjoin 
是否優(yōu)化 bucket map join。 
false

hive.optimize.bucketmapjoin.sortedmerge 
是否在優(yōu)化 bucket map join 時(shí)嘗試使用強(qiáng)制 sorted merge bucket map join。 
false

hive.optimize.reducededuplication 
是否優(yōu)化 reduce 冗余。 
true

hive.hbase.wal.enabled 
是否開(kāi)啟 HBase Storage Handler。 
true

hive.archive.enabled 
是否啟用 har 文件。 
false

hive.archive.har.parentdir.settable 
是否啟用 har 文件的父目錄可設(shè)置。 
false

hive.outerjoin.supports.filters 
是否啟動(dòng)外聯(lián)接支持過(guò)濾條件。 
true

hive.fetch.output.serde 
對(duì)于 Fetch Task 的 SerDe 類 
'org.apache.hadoop.hive.serde2.DelimitedJSONSerDe'

hive.semantic.analyzer.hook 
Hive 語(yǔ)義分析的 Hook,在語(yǔ)義分析階段的前后被調(diào)用,用于分析和修改AST及生成的執(zhí)行計(jì)劃,以逗號(hào)分隔。 
null

hive.cli.print.header 
是否顯示查詢結(jié)果的列名,默認(rèn)為不顯示。 
false

hive.cli.encoding 
Hive 默認(rèn)的命令行字符編碼。 
'UTF8'

hive.log.plan.progress 
是否記錄執(zhí)行計(jì)劃的進(jìn)度。 
true

hive.exec.script.wrapper 
Script Operator 腳本調(diào)用的封裝,通常為腳本解釋程序。例如,可以把該變量值的名稱設(shè)置為"python",那么傳遞到 Script Operator 的腳本將會(huì)以"python <script command>"的命令形式進(jìn)行調(diào)用,如果這個(gè)值為null或者沒(méi)有設(shè)置,那么該腳本將會(huì)直接以"<script command>"的命令形式調(diào)用。 
null

hive.check.fatal.errors.interval 
客戶端通過(guò)拉取 counters 檢查嚴(yán)重錯(cuò)誤的周期,以毫秒為單位,淘寶特有配置項(xiàng)。 
5000L

感謝你能夠認(rèn)真閱讀完這篇文章,希望小編分享的“Hive參數(shù)配置如何調(diào)優(yōu)”這篇文章對(duì)大家有幫助,同時(shí)也希望大家多多支持億速云,關(guān)注億速云行業(yè)資訊頻道,更多相關(guān)知識(shí)等著你來(lái)學(xué)習(xí)!

向AI問(wèn)一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI