溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點(diǎn)擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

HDFS中NN和2NN工作機(jī)制的示例分析

發(fā)布時間:2021-12-09 13:35:31 來源:億速云 閱讀:138 作者:小新 欄目:大數(shù)據(jù)

小編給大家分享一下HDFS中NN和2NN工作機(jī)制的示例分析,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!

1、NN工作機(jī)制

引入:當(dāng)我們將數(shù)據(jù)上傳到HDFS分布式系統(tǒng)進(jìn)行存儲時,通過NN存儲HDFS系統(tǒng)中數(shù)據(jù)的元數(shù)據(jù),DN存儲真實(shí)數(shù)據(jù),那NN中的
元數(shù)據(jù)存儲在哪?

假設(shè):a.考慮數(shù)據(jù)安全性和可靠性,NN中元數(shù)據(jù)存儲在節(jié)點(diǎn)的磁盤中。
	--問題:訪問效率很低( 因?yàn)樾薷脑獢?shù)據(jù)是在磁盤進(jìn)行修改的~IO操作)
	
      b.考慮數(shù)據(jù)操作速率,將NN中元數(shù)據(jù)存儲在內(nèi)存中。
	--問題:服務(wù)器宕機(jī),停電等故障,導(dǎo)致元數(shù)據(jù)丟失(元數(shù)據(jù)丟失,整個集群無法工作)
	
問題:那該怎么實(shí)現(xiàn)高效操作元數(shù)據(jù)的情況下,還能實(shí)現(xiàn)內(nèi)存+磁盤的維護(hù)方案
解決:HDFS通過備份fsimage(鏡像文件) + edits(滾動編輯日志)的方案來解決問題
	--fsimage:NameNode內(nèi)存中元數(shù)據(jù)序列化后形成的文件
	鏡像文件:某個時刻對NN內(nèi)存中元數(shù)據(jù)的一個快照. 鏡像文件 <= NN內(nèi)存中數(shù)據(jù)
	
	--Edits:記錄client改元數(shù)據(jù)信息的每一步操作(可通過Edits運(yùn)算出元數(shù)據(jù))。
	 Edits文件(只進(jìn)行追加操作,效率很高),將對NN中元數(shù)據(jù)的操作,以日志記錄的方式存入Edits文件
		a.Edits文件隨著操作的增加會越來越大,需要定期進(jìn)行FsImage和Edits的合并
		b.SecondaryNamenode(2NN)專門用于FsImage和Edits的合并.

結(jié)論:磁盤和內(nèi)存中均存

HDFS中NN和2NN工作機(jī)制的示例分析

NN主要操作:
	 --第一次啟動NN格式化后,在/opt/module/hadoop-3.1.3/data/name/current下會創(chuàng)建fsimage和eidts文
 件,如果不是第一次啟動,則直接加載鏡像文件和滾動編輯日志文件到內(nèi)存
	 seen_txid:記錄正在使用的編輯日志文件
	 
1) NN啟動時,需要自己先將磁盤的fsimage_current+edits001_progress 文件進(jìn)行一次合并. 在內(nèi)存中構(gòu)建好元數(shù)據(jù)信息

2) 當(dāng)對HDFS進(jìn)行改操作, 首先會在edits001_progress(正在使用的編輯日志)記錄對應(yīng)的操作,然后對NN內(nèi)存中的元數(shù)據(jù)
進(jìn)行相應(yīng)的修改.

3) 2NN會每隔1個小時或者當(dāng) edits001_progress中已經(jīng)記錄了100萬次的操作后,開始進(jìn)行fsimage_current 和ed
its001_progress的合并

4) NN會將edits_progress進(jìn)行所謂的滾動,說白了就是該文件不能再進(jìn)行寫入操作,會生成另外一個編輯日志文件用
于記錄后續(xù)的寫操作.
	  滾動正在使用的編輯日志: edits001_progress --> edits001
	  新的編輯日志: edits002_progress
   
5) 2NN 將NN中的fsimage_current 和 edits001 拷貝過來。加載到內(nèi)存中進(jìn)行合并. 合并完成后會生成新的fsimage_new.

6) 2NN 將fsimage_new 推送到NN中, fsiamge_current --> fsimage_old 會保留,fsimage_new -->fsiamge_
current .相當(dāng)于會保留一份新的fsimage 和一份舊的fsiamge.

7) 總結(jié): NN內(nèi)存中的數(shù)據(jù) = 磁盤上正在使用的fsimage + 正在使用的edits文件.

2、2NN工作機(jī)制

2NN主要操作:大致流程
	 a.將NN機(jī)器對應(yīng)磁盤上的fsimage 和 Edits文件拉取到2NN的機(jī)器中
	 b.在2NN的機(jī)器中將fsimage + Edits都讀取到內(nèi)存中進(jìn)行合并,然后生成新的fsimage.chkpint
在合并時,edits日志文件會重新生成一個新的,用來記錄在合并時的操作
	 c.再推送到NN機(jī)器中的磁盤上,重命名成fsimage,NN中舊的fsimage會保留,新的fsimage對應(yīng)的
是正在使用 

checkpoint時間設(shè)置:(觸發(fā)條件)
   a.2NN每隔1小時就發(fā)送請求給NN是否需要進(jìn)行checkpoint
	 [hdfs-default.xml]		--具體設(shè)置
	 
        <property>
          <name>dfs.namenode.checkpoint.period</name>
          <value>3600</value>
        </property>
		
   b.Edites文件記錄操作數(shù)達(dá)到100萬,進(jìn)行checkpoint操作
	--2nn并不知道客戶端操作了多少次nn,所以設(shè)置1分鐘詢問nn一次
	[hdfs-site.xml]添加如下配置:

	 <property>
            <name>dfs.namenode.checkpoint.txns</name>
            <value>1000000</value>
            <description>操作動作次數(shù)</description>
        </property>
        <property>
            <name>dfs.namenode.checkpoint.check.period</name>
            <value>60</value>
            <description> 1分鐘檢查一次操作次數(shù)</description>
        </property >

3、Fsimage和Edits

HDFS中NN和2NN工作機(jī)制的示例分析

4、NN故障處理

方式一:將secondaryNameNode中的數(shù)據(jù)cp到NameNode存儲數(shù)據(jù)的目錄(會缺少edits_inprocess中記錄的那部分?jǐn)?shù)據(jù))
	--NN存儲的目錄(/opt/module/hadoop-3.1.3/data/name/current)

具體操作演示:
	1、殺掉NameNode進(jìn)程
		jps 查看NN運(yùn)行的進(jìn)程號
		kill -9 NN進(jìn)程號
	2、刪除name下所有內(nèi)容
		rm -rf /opt/module/hadoop-3.1.3/data/name/*
	3、拷貝2NN服務(wù)器節(jié)點(diǎn)name下的所有內(nèi)容到NN中的name目錄下
		scp -r luck@swk5:/opt/module/hadoop-3.1.3/data/namesecondary/* ./name/
方式二:使用-importCheckpoint選項(xiàng)啟動NameNode守護(hù)進(jìn)程,從而將SecondaryNameNode中數(shù)據(jù)拷貝到NameNode目錄中.
具體操作:
   1、修改hdfs-site.xml
	<property>
          <name>dfs.namenode.checkpoint.period</name>
          <value>120</value>
        </property>
        <property>
          <name>dfs.namenode.name.dir</name>
          <value>/opt/module/hadoop-3.1.3/data/name</value>
        </property>
		
   2、kill -9 NameNode進(jìn)程
   
   3、刪除NameNode存儲的數(shù)據(jù)(/opt/module/hadoop-3.1.3/data/name)
   
   4、如果2NN不和NN在一個主機(jī)節(jié)點(diǎn)上,需要將2NN存儲數(shù)據(jù)的目錄拷貝到NN存儲數(shù)據(jù)的平級目錄,并刪除in_use.lock文件
		scp -r atguigu@swk5:/opt/module/hadoop-3.1.3/data/namesecondary ./
		rm -rf in_use.lock
		pwd   --->   /opt/module/hadoop-3.1.3/data
		
   5、導(dǎo)入檢查點(diǎn)數(shù)據(jù)(等待一會ctrl+c結(jié)束掉)
		bin/hdfs namenode -importCheckpoint
		
   6、啟動NameNode
		hdfs --daemon start namenode

5、集群安全模式

安全模式生命周期:
1、init
	當(dāng)NN剛啟動~加載fsimage+edites日志文件~內(nèi)存中元數(shù)據(jù)構(gòu)建成功~NN開始監(jiān)聽DN請求,此過程中,NN處于安全
模式下,NN的文件系統(tǒng)對于client是只讀的

2、run
	當(dāng)DN啟動~DN向NN發(fā)起內(nèi)部通信,告知NN自己節(jié)點(diǎn)上DN真實(shí)塊數(shù)據(jù)列表信息(安全模式下),NN收到各DN的塊位
置信息之后,開始運(yùn)行文件系統(tǒng)
	--NN中的真實(shí)數(shù)據(jù)存放位置不是由NN維護(hù)的,而是以塊的形式存儲在各DN節(jié)點(diǎn)上
	
3、safe quit:(HDFS集群系統(tǒng)啟動完成后,自動退出安全模式)
	滿足‘最小副本條件’ 安全模式退出
	--最小副本:整個文件系統(tǒng)中99.9%的塊滿足最小副本級別(默認(rèn)值:dfs.replication.min=1)
安全模式具體操作:
1、--查看安全模式狀態(tài)
	bin/hdfs dfsadmin -safemode get
2、--進(jìn)入安全模式
	bin/hdfs dfsadmin -safemode enter
3、--離開安全模式
	bin/hdfs dfsadmin -safemode leave
4、--等待安全模式
	bin/hdfs dfsadmin -safemode wait
案例演示:
1、在/opt/module/hadoop-3.1.3/ 路徑下創(chuàng)建腳本safemode.sh
	touch safemode.sh
2、編輯safemode.sh
	sudo vim safemode.sh    --內(nèi)容是安全模式進(jìn)入等待狀態(tài),并上傳一個文件到HDFS系統(tǒng)
	
    #!/bin/bash
    hdfs dfsadmin -safemode wait
    hdfs dfs -put /opt/module/hadoop-3.1.3/README.txt /
	
3、給與safemode.sh執(zhí)行權(quán)限
	chmod 777 safemode.sh
4、運(yùn)行safemode.sh腳本
	./safemode.sh
5、重新打開一個xshell控制臺,執(zhí)行離開等待狀態(tài)
	bin/hdfs dfsadmin -safemode leave
6、觀察原窗口,查看原窗口hdfs的安全模式狀態(tài)
	bin/hdfs dfsadmin -safemode get
	Safe mode is OFF
	safemode.sh中的上傳代碼執(zhí)行,hdfs集群已有上傳的數(shù)據(jù)

6、NN的多目錄設(shè)置

--NN的本地目錄可以配置成多個,且每個目錄存放內(nèi)容相同,增加了可靠性,name1和name2可以掛載到不同磁盤(linux支
持),這樣就可以保證元數(shù)據(jù)的可靠性,多目錄掛載單個磁盤,沒有意義,磁盤壞掉,目錄也就壞掉了

--生產(chǎn)環(huán)境中,要提前就考慮好每個NN目錄要掛載的磁盤,保證一個磁盤壞掉,其它仍然可進(jìn)行讀寫操作
具體操作:
1、配置hdfs-site.xml文件
<property>
    <name>dfs.namenode.name.dir</name>
    <value>file:///${hadoop.tmp.dir}/name1,file:///${hadoop.tmp.dir}/name2</value>
</property>
2、停止集群,刪除data和logs中所有數(shù)據(jù)(多臺機(jī)器均要執(zhí)行以下操作,保證數(shù)據(jù)一致性)
	stop-dfs.sh
	rm -rf /opt/module/hadoop-3.1.3/data
	rm -rf /opt/module/hadoop-3.1.3/logs	
3、格式化集群啟動
	bin/hdfs namenode -format
	bin/hdfs --daemon start namenode(單個起)    start-dfs.sh(群起集群)
4、查看結(jié)果
	ll  /opt/module/hadoop-3.1.3/data

以上是“HDFS中NN和2NN工作機(jī)制的示例分析”這篇文章的所有內(nèi)容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內(nèi)容對大家有所幫助,如果還想學(xué)習(xí)更多知識,歡迎關(guān)注億速云行業(yè)資訊頻道!

向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI