溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

hadoop的指標(biāo)類型和日志

發(fā)布時(shí)間:2020-06-10 17:09:10 來(lái)源:億速云 閱讀:499 作者:元一 欄目:大數(shù)據(jù)

Hadoop概念

Hadoop是一個(gè)能夠?qū)Υ罅繑?shù)據(jù)進(jìn)行分布式處理的軟件框架。 Hadoop 以一種可靠、高效、可伸縮的方式進(jìn)行數(shù)據(jù)處理 。

Hadoop 是可靠的,因?yàn)樗僭O(shè)計(jì)算元素和存儲(chǔ)會(huì)失敗,因此它維護(hù)多個(gè)工作數(shù)據(jù)副本,確保能夠針對(duì)失敗的節(jié)點(diǎn)重新分布處理 。

Hadoop 是高效的,因?yàn)樗圆⑿械姆绞焦ぷ?,通過(guò)并行處理加快處理速度 。

Hadoop 還是可伸縮的,能夠處理 PB 級(jí)數(shù)據(jù) 。

此外,Hadoop 依賴于社區(qū)服務(wù),因此它的成本比較低,任何人都可以使用 。

Hadoop是一個(gè)能夠讓用戶輕松架構(gòu)和使用的分布式計(jì)算平臺(tái)。用戶可以輕松地在Hadoop上開(kāi)發(fā)和運(yùn)行處理海量數(shù)據(jù)的應(yīng)用程序。它主要有以下幾個(gè)優(yōu)點(diǎn) :

1.高可靠性。Hadoop按位存儲(chǔ)和處理數(shù)據(jù)的能力值得人們信賴 。

2.高擴(kuò)展性。Hadoop是在可用的計(jì)算機(jī)集簇間分配數(shù)據(jù)并完成計(jì)算任務(wù)的,這些集簇可以方便地?cái)U(kuò)展到數(shù)以千計(jì)的節(jié)點(diǎn)中 。

3.高效性。Hadoop能夠在節(jié)點(diǎn)之間動(dòng)態(tài)地移動(dòng)數(shù)據(jù),并保證各個(gè)節(jié)點(diǎn)的動(dòng)態(tài)平衡,因此處理速度非???。

4.高容錯(cuò)性。Hadoop能夠自動(dòng)保存數(shù)據(jù)的多個(gè)副本,并且能夠自動(dòng)將失敗的任務(wù)重新分配 。

5.低成本。與一體機(jī)、商用數(shù)據(jù)倉(cāng)庫(kù)以及QlikView、Yonghong Z-Suite等數(shù)據(jù)集市相比,hadoop是開(kāi)源的,項(xiàng)目的軟件成本因此會(huì)大大降低 。

Hadoop 指標(biāo)類型

Hadoopde 守護(hù)進(jìn)程的指標(biāo)根據(jù)它們所屬的上下文可以分為不同的組,如下所述:

JVM指標(biāo):這些指標(biāo)由集群中運(yùn)行的JVM產(chǎn)生包括JVM堆大小和垃圾回收相關(guān)指標(biāo),例如當(dāng)前的堆內(nèi)存(MemHeapUsed)的使用情況和總GC計(jì)數(shù)(GcCount)。

RPC指標(biāo):rpc上下文中的指標(biāo)包括主機(jī)名和端口等,還包括諸如發(fā)生字節(jié)數(shù)(SentBytes)、當(dāng)前打卡連接數(shù)(NumOpenConnections)和認(rèn)證失敗次數(shù)等指標(biāo)。

DFS指標(biāo)dfs上下文中包括與NameNode、HDFS文件系統(tǒng)、DataNodesJournalNodes相關(guān)指標(biāo),DFS指標(biāo)可以告訴集群中是否存在大量的文件創(chuàng)建和刪除操作。

Hadoop的日志消息

可以通過(guò)瀏覽各個(gè)日志文件或通過(guò)Hadoop內(nèi)置的web界面訪問(wèn)Spark和其他作業(yè)的hadoop日志消息。大多數(shù)時(shí)候,通過(guò)web界面訪問(wèn)日志更好,因?yàn)榭梢怨?jié)省時(shí)間,并快速找到發(fā)生性能問(wèn)題或者作業(yè)失敗的原因:

Hadoop生成兩種主要類型的日志

它為守護(hù)程序(如NameNodeDataNode)生成日志。守護(hù)進(jìn)程日志主要由管理員使用,因?yàn)樗鼈冇兄c排除DataNodeNameNode等關(guān)鍵Hadoop服務(wù)的意外故障。

Hadoop還為集群中的運(yùn)行的每個(gè)應(yīng)用程序生成日志,hadoop應(yīng)用程序日志可以用于開(kāi)發(fā)人員了解作業(yè)失敗和性能下降的原因。

可以通過(guò)多種方式查看hadoop的日志

Hadoop web UI 特別是ResourceManager webUi可以免除訪問(wèn)日志存儲(chǔ)位置和查看日志文件的麻煩,還可以通過(guò)JobHistory web UI 查看日志

直接從日志文件檢查日志信息

對(duì)于某些應(yīng)用程序日志,如果開(kāi)啟了日志聚合功能則將他們聚合到HDFS存儲(chǔ)。

通過(guò)yarn命令檢查:

yarn application命令可以管理一下任務(wù):

列出集群中運(yùn)行的應(yīng)用程序

殺死正在運(yùn)行的的應(yīng)用程序

獲取正在運(yùn)行的應(yīng)用程序的狀態(tài)。

查看Yarn應(yīng)用程序

 yarn application -list 可以檢索所有作業(yè)的列表,不考慮它們的狀態(tài)。作業(yè)可以具有以下?tīng)顟B(tài):All、NEW、NEW_SAVING、SUMBMITTED、ACCEPTEDRUNNING、FINISHED、FAILEDKILLED。指定-appStates選項(xiàng)即可

yarn application -list -appStates running

檢查應(yīng)用程序的狀態(tài)

yarn application -status <application_id>

kill正在執(zhí)行的的作業(yè)

yarn application -kill <application_id>

檢查節(jié)點(diǎn)狀態(tài)

yarn node -all -list 列出集群的所有節(jié)點(diǎn)及其狀態(tài)

 

獲取作業(yè)日志

yarn logs 名利的語(yǔ)法:

yarn logs -applicationId <application_id>

只能獲取已經(jīng)結(jié)束的運(yùn)行的作業(yè)的日志。

Hadoop存儲(chǔ)日志的位置

1、hdfs:這是hadoop創(chuàng)建用于存儲(chǔ)作業(yè)執(zhí)行文件(如包含運(yùn)行作業(yè)hadoop參數(shù)的job.xml)的暫存目錄的位置。

2、NodeManager本地目錄:這是在本地文件系統(tǒng)上創(chuàng)建的目錄,hadoop在其中存儲(chǔ)由NodeManager服務(wù)生產(chǎn)的Shell腳本,以便執(zhí)行ApplicationMaster容器??梢允褂?/span>yarn-site.xml文件中的yarn.nodemanager.local.dir參數(shù)指定NodeManger本地目錄位置。

此參數(shù)可以提供NodeManager存儲(chǔ)其本地文件的目錄列表。在這些目錄下實(shí)際應(yīng)用程序的本地文件目錄${yarn.nodemanager.local-dir}/usercache/user/....。每個(gè)NodeManagerNodeManager本地目錄下的本地應(yīng)用程序緩存中

3、NodeManger日志目錄:這是linux上本地目錄,NodeManager在此存儲(chǔ)用戶運(yùn)行的應(yīng)用程序的實(shí)際日志文件。在此節(jié)點(diǎn)的NodeManager上執(zhí)行作業(yè)的所有容器及其應(yīng)用程序日志存儲(chǔ)在此目錄中。使用yarn.nodemanager.log-dirs參數(shù)指定NodeManager日志目錄的位置。

     不需要擔(dān)心nm-local-dirs目錄會(huì)填滿appcache子目錄下的作業(yè)文件,這些文件在作業(yè)完成時(shí)會(huì)被自動(dòng)刪除。但是某些作業(yè)確實(shí)包含大文件,配置屬性yarn.nodemanager.delete.debug-delay-sec指定在應(yīng)用程序后就保留本地日志目錄的時(shí)間,一點(diǎn)配置時(shí)間到期,NodeManagerdeletionservicehi刪除應(yīng)用程序本地文件目錄結(jié)構(gòu)。

Hadoop存儲(chǔ)日志聚合

      啟用日志聚合之后,nodemanager會(huì)將所有容器日志連接到一個(gè)文件中并將它保存在HDFS中,可以使用yarn.nodemanager.remote-app-log-dir參數(shù)配置hadoop hdfs的哪里存儲(chǔ)聚合日志。一般配置在/tmp/hadoop/logs/

三種方式獲取應(yīng)用程序日志

1、hdfs中獲取

2、通過(guò)hadoop web UI看,在未結(jié)束的應(yīng)用的中點(diǎn)擊applicationmaster,點(diǎn)擊頁(yè)簽下面的logs

3、作業(yè)完成之后從JobHistoryServer UI查看


向AI問(wèn)一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI