您好,登錄后才能下訂單哦!
這篇文章主要講解了“Hive的join底層mapreduce是如何實(shí)現(xiàn)的”,文中的講解內(nèi)容簡單清晰,易于學(xué)習(xí)與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學(xué)習(xí)“Hive的join底層mapreduce是如何實(shí)現(xiàn)的”吧!
讀取表的數(shù)據(jù),Map輸出時候以 Join on 條件中的列為key,如果Join有多個關(guān)聯(lián)鍵,則以這些關(guān)聯(lián)鍵的組合作為key;
Map輸出的 value 為 join 之后需要輸出或者作為條件的列;同時在value中還會包含表的 Tag 信息,用于標(biāo)明此value對應(yīng)的表;按照key進(jìn)行排序
根據(jù)key取哈希值,并將key/value按照哈希值分發(fā)到不同的reduce中
根據(jù)key的值完成join操作,并且通過Tag來識別不同表中的數(shù)據(jù)。在合并過程中,把表編號扔掉
drop table if exists wedw_dwd.user_info_df; CREATE TABLE wedw_dwd.user_info_df( user_id string COMMENT '用戶id', user_name string COMMENT '用戶姓名' )row format delimited fields terminated by '\t' STORED AS textfile ; +----------+------------+--+| user_id | user_name |+----------+------------+--+| 1 | 小紅 || 2 | 小明 || 3 | 小花 |+----------+------------+--+
drop table if exists wedw_dwd.order_info_df; CREATE TABLE wedw_dwd.order_info_df( user_id string COMMENT '用戶id', course_name string COMMENT '課程名稱' )row format delimited fields terminated by '\t' STORED AS textfile ; +----------+--------------+--+| user_id | course_name |+----------+--------------+--+| 1 | spark || 2 | flink || 3 | java |+----------+--------------+--+
select t1.user_id,t1.user_name,t2.course_namefromwedw_dwd.user_info_df t1join wedw_dwd.order_info_df t2on t1.user_id = t2.user_id;+----------+------------+--------------+--+| user_id | user_name | course_name |+----------+------------+--------------+--+| 1 | 小紅 | spark || 2 | 小明 | flink || 3 | 小花 | java |+----------+------------+--------------+--+
圖解:(在合并過程中,把表編號扔掉)
感謝各位的閱讀,以上就是“Hive的join底層mapreduce是如何實(shí)現(xiàn)的”的內(nèi)容了,經(jīng)過本文的學(xué)習(xí)后,相信大家對Hive的join底層mapreduce是如何實(shí)現(xiàn)的這一問題有了更深刻的體會,具體使用情況還需要大家實(shí)踐驗證。這里是億速云,小編將為大家推送更多相關(guān)知識點(diǎn)的文章,歡迎關(guān)注!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。