您好,登錄后才能下訂單哦!
這篇文章主要介紹“如何通過web查看hdfs集群狀態(tài)”,在日常操作中,相信很多人在如何通過web查看hdfs集群狀態(tài)問題上存在疑惑,小編查閱了各式資料,整理出簡(jiǎn)單好用的操作方法,希望對(duì)大家解答”如何通過web查看hdfs集群狀態(tài)”的疑惑有所幫助!接下來,請(qǐng)跟著小編一起來學(xué)習(xí)吧!
問題導(dǎo)讀: 1.如何通過web查看hdfs集群狀態(tài) 2.如何通過web查看運(yùn)行在在主節(jié)點(diǎn)master上ResourceManager狀態(tài) 3.如何通過web查看運(yùn)行在在slave節(jié)點(diǎn)NodeManager資源狀態(tài) 4.JobHistory 可以查看什么信息 |
本文是在hadoop2的基礎(chǔ)上hadoop2完全分布式最新高可靠安裝文檔的一個(gè)繼續(xù)。
hadoop2.2安裝完畢,我們?cè)撛趺词褂盟?,這里做一些簡(jiǎn)單的介紹
一、可以通過登錄Web控制臺(tái),查看HDFS集群狀態(tài),訪問如下地址:
http://master:50070/
復(fù)制代碼
來源:
組件 :HDFS
節(jié)點(diǎn) :NameNode
默認(rèn)端口:50070
配置 :dfs.namenode.http-address
用途說明:http服務(wù)的端口
hadoop2.x常用端口及定義方法(可收藏方便以后查詢)
二、ResourceManager運(yùn)行在主節(jié)點(diǎn)master上,可以Web控制臺(tái)查看狀態(tài)
http://master:8088/
復(fù)制代碼
如果你的主機(jī)名不是master,按照下面格式來訪問。
http://ip地址:8088/
復(fù)制代碼
或則
http://hostname:8088/
復(fù)制代碼
這里介紹8088的來源:
yarn-site.xml中的屬性:
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>master:8088</value>
</property>
三、NodeManager運(yùn)行在從節(jié)點(diǎn)上,可以通過Web控制臺(tái)查看對(duì)應(yīng)節(jié)點(diǎn)的資源狀態(tài),例如節(jié)點(diǎn)slave1:
http://slave1:8042/
復(fù)制代碼
來源:
組件 :YARN
節(jié)點(diǎn) :NodeManager
默認(rèn)端口:8042
配置 :yarn.nodemanager.webapp.address
用途說明:http服務(wù)端口
四、管理JobHistory Server
啟動(dòng)可以JobHistory Server,能夠通過Web控制臺(tái)查看集群計(jì)算的任務(wù)的信息,執(zhí)行如下命令:
mr-jobhistory-daemon.sh start historyserver
復(fù)制代碼
默認(rèn)使用19888端口。
通過訪問http://master:19888/
來源:
組件 :YARN
節(jié)點(diǎn) :JobHistory Server
默認(rèn)端口:19888
配置 :mapreduce.jobhistory.webapp.address
用途說明:http服務(wù)端口
以上所有端口都可以從hadoop2.x常用端口及定義方法(可收藏方便以后查詢)文章中找到。
終止JobHistory Server,執(zhí)行如下命令:
mr-jobhistory-daemon.sh stop historyserver
復(fù)制代碼
概述
文件系統(tǒng) (FS) shell 包括各種類似的命令直接與 Hadoop Distributed File System (HDFS)交互。hadoop也支持其它文件系統(tǒng),比如 Local FS, HFTP FS, S3 FS, 和 其它的. FS shell被下面調(diào)用:
[Bash shell] 純文本查看 復(fù)制代碼
?
1 |
|
所有的FS shell命令帶有URIs路徑參數(shù)。The URI 格式是://authority/path。對(duì) HDFS文件系統(tǒng),scheme是hdfs。其中scheme和 authority參數(shù)都是可選的
如果沒有指定,在文件中使用默認(rèn)scheme.一個(gè)hdfs文件或則目錄比如 /parent/child,可以是 hdfs://namenodehost/parent/child 或則簡(jiǎn)化為/parent/child(默認(rèn)配置設(shè)置成指向hdfs://namenodehost).大多數(shù)FS shell命令對(duì)應(yīng) Unix 命令.每個(gè)命令都有不同的描述。將錯(cuò)誤信息發(fā)送到標(biāo)準(zhǔn)錯(cuò)誤輸出和輸出發(fā)送到stdout。
appendToFile【添加文件】
用法: hadoop fs -appendToFile <localsrc> ... <dst>添加單個(gè)src,或則多個(gè)srcs從本地文件系統(tǒng)到目標(biāo)文件系統(tǒng)。從標(biāo)準(zhǔn)輸入讀取并追加到目標(biāo)文件系統(tǒng)。
hadoop fs -appendToFile localfile /user/hadoop/hadoopfile
hadoop fs -appendToFile localfile1 localfile2 /user/hadoop/hadoopfile
hadoop fs -appendToFile localfile hdfs://nn.example.com/hadoop/hadoopfile
hadoop fs -appendToFile - hdfs://nn.example.com/hadoop/hadoopfile Reads the input from stdin.
返回代碼:
返回 0成功返回 1 錯(cuò)誤
cat
用法: hadoop fs -cat URI [URI ...]
將路徑指定文件的內(nèi)容輸出到stdout
例子:
hadoop fs -cat hdfs://nn1.example.com/file1 hdfs://nn2.example.com/file2
hadoop fs -cat file:///file3 /user/hadoop/file4
返回代碼:
返回 0成功返回 1 錯(cuò)誤
checksum
用法: hadoop fs -checksum URI
返回 checksum 文件信息
例子:
hadoop fs -checksum hdfs://nn1.example.com/file1
hadoop fs -checksum file:///etc/hosts
chgrp
用法: hadoop fs -chgrp [-R] GROUP URI [URI ...]
改變文件所屬組. 必須是文件所有者或則超級(jí)用戶. 更多信息在 Permissions Guide.
選項(xiàng)
使用-R 將使改變?cè)谀夸浗Y(jié)構(gòu)下遞歸進(jìn)行
chmod
用法: hadoop fs -chmod [-R] <MODE[,MODE]... | OCTALMODE> URI [URI ...]
更改文件的權(quán)限. 使用-R 將使改變?cè)谀夸浗Y(jié)構(gòu)下遞歸進(jìn)行。 必須是文件所有者或則超級(jí)用戶. 更多信息在 Permissions Guide.
選項(xiàng)
使用-R 將使改變?cè)谀夸浗Y(jié)構(gòu)下遞歸進(jìn)行。
chown
用法: hadoop fs -chown [-R] [OWNER][:[GROUP]] URI [URI ]
更改文件的所有者. 使用-R 將使改變?cè)谀夸浗Y(jié)構(gòu)下遞歸進(jìn)行。 必須是文件所有者或則超級(jí)用戶. 更多信息在 Permissions Guide.
選項(xiàng)
使用-R 將使改變?cè)谀夸浗Y(jié)構(gòu)下遞歸進(jìn)行。
copyFromLocal
用法: hadoop fs -copyFromLocal <localsrc> URI
類似put命令, 需要指出的是這個(gè)限制是本地文件
選項(xiàng):
-f 選項(xiàng)會(huì)重寫已存在的目標(biāo)文件
copyToLocal
用法: hadoop fs -copyToLocal [-ignorecrc] [-crc] URI <localdst>
與get命令類似, 除了限定目標(biāo)路徑是一個(gè)本地文件外。
count
用法: hadoop fs -count [-q] [-h] [-v] <paths>統(tǒng)計(jì)目錄個(gè)數(shù),文件和目錄下文件的大小。輸出列:DIR_COUNT, FILE_COUNT, CONTENT_SIZE, PATHNAME
【目錄個(gè)數(shù),文件個(gè)數(shù),總大小,路徑名稱】
輸出列帶有 -count -q 是: QUOTA, REMAINING_QUATA, SPACE_QUOTA, REMAINING_SPACE_QUOTA, DIR_COUNT, FILE_COUNT, CONTENT_SIZE, PATHNAME
【配置,其余指標(biāo),空間配額,剩余空間定額,目錄個(gè)數(shù),文件個(gè)數(shù),總大小,路徑名稱】
The -h 選項(xiàng),size可讀模式.
The -v 選項(xiàng)顯示一個(gè)標(biāo)題行。
Example:
hadoop fs -count hdfs://nn1.example.com/file1 hdfs://nn2.example.com/file2
hadoop fs -count -q hdfs://nn1.example.com/file1
hadoop fs -count -q -h hdfs://nn1.example.com/file1
hdfs dfs -count -q -h -v hdfs://nn1.example.com/file1
返回代碼:
返回 0成功返回 1 錯(cuò)誤
cp
用法: hadoop fs -cp [-f] [-p | -p[topax]] URI [URI ...] <dest>復(fù)制文件,這個(gè)命令允許復(fù)制多個(gè)文件到一個(gè)目錄。
‘raw.*’ 命名空間擴(kuò)展屬性被保留
(1)源文件和目標(biāo)文件支持他們(僅hdfs)
(2)所有的源文件和目標(biāo)文件路徑在 /.reserved/raw目錄結(jié)構(gòu)下。
決定是否使用 raw.*命名空間擴(kuò)展屬性依賴于-P選項(xiàng)
選項(xiàng):
-f 選項(xiàng)如果文件已經(jīng)存在將會(huì)被重寫.
-p 選項(xiàng)保存文件屬性 [topx] (timestamps, ownership, permission, ACL, XAttr). 如果指定 -p沒有參數(shù), 保存timestamps, ownership, permission. 如果指定 -pa, 保留權(quán)限 因?yàn)锳CL是一個(gè)權(quán)限的超級(jí)組。確定是否保存raw命名空間屬性取決于是否使用-p決定
例子:
hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2
hadoop fs -cp /user/hadoop/file1 /user/hadoop/file2 /user/hadoop/dir
返回代碼:
返回 0成功返回 1 錯(cuò)誤
createSnapshot
查看 HDFS Snapshots Guide.
deleteSnapshot
查看 HDFS Snapshots Guide.
df【查看還剩多少hdfs空間】
用法: hadoop fs -df [-h] URI [URI ...]
顯示剩余空間
選項(xiàng):
-h 選項(xiàng)會(huì)讓人更加易讀 (比如 64.0m代替 67108864)
Example:
hadoop dfs -df /user/hadoop/dir1
du
用法: hadoop fs -du [-s] [-h] URI [URI ...]顯示給定目錄的文件大小及包含的目錄,如果只有文件只顯示文件的大小
選項(xiàng):
-s 選項(xiàng)匯總文件的長(zhǎng)度,而不是現(xiàn)實(shí)單個(gè)文件.
-h 選項(xiàng)顯示格式更加易讀 (例如 64.0m代替67108864)
例子:
hadoop fs -du /user/hadoop/dir1 /user/hadoop/file1 hdfs://nn.example.com/user/hadoop/dir1
返回代碼:
返回 0成功返回 1 錯(cuò)誤
dus
用法: hadoop fs -dus <args>
顯示統(tǒng)計(jì)文件長(zhǎng)度
注意:這個(gè)命令已被啟用, hadoop fs -du -s即可
expunge
用法: hadoop fs -expunge
清空垃圾回收站. 涉及 HDFS Architecture Guide 更多信息查看回收站特點(diǎn)
find
用法: hadoop fs -find <path> ... <expression> ...查找與指定表達(dá)式匹配的所有文件,并將選定的操作應(yīng)用于它們。如果沒有指定路徑,則默認(rèn)查找當(dāng)前目錄。如果沒有指定表達(dá)式默認(rèn)-print
下面主要表達(dá)式:
-name 模式
-iname 模式
如果
值為TRUE如果文件基本名匹配模式使用標(biāo)準(zhǔn)的文件系統(tǒng)組合。如果使用-iname匹配不區(qū)分大小寫。
-print
-print0Always
值為TRUE. 當(dāng)前路徑被寫至標(biāo)準(zhǔn)輸出。如果使用 -print0 表達(dá)式, ASCII NULL 字符是追加的.
下面操作:
expression -a expression
expression -and expression
expression expression
and運(yùn)算符連接兩個(gè)表達(dá)式,如果兩個(gè)字表達(dá)式返回true,則返回true.由兩個(gè)表達(dá)式的并置暗示,所以不需要明確指定。如果第一個(gè)失敗,則不會(huì)應(yīng)用第二個(gè)表達(dá)式。
例子:
hadoop fs -find / -name test -print
返回代碼:
返回 0成功返回 1 錯(cuò)誤
get
用法: hadoop fs -get [-ignorecrc] [-crc] <src> <localdst>復(fù)制文件到本地文件。
復(fù)制文件到本地文件系統(tǒng). 【CRC校驗(yàn)失敗的文件復(fù)制帶有-ignorecrc選項(xiàng)(如翻譯有誤歡迎指正)】
Files that fail the CRC check may be copied with the -ignorecrc option.
文件CRC可以復(fù)制使用CRC選項(xiàng)。
例子:
hadoop fs -get /user/hadoop/file localfile
hadoop fs -get hdfs://nn.example.com/user/hadoop/file localfile
返回代碼:
返回 0成功返回 1 錯(cuò)誤
到此,關(guān)于“如何通過web查看hdfs集群狀態(tài)”的學(xué)習(xí)就結(jié)束了,希望能夠解決大家的疑惑。理論與實(shí)踐的搭配能更好的幫助大家學(xué)習(xí),快去試試吧!若想繼續(xù)學(xué)習(xí)更多相關(guān)知識(shí),請(qǐng)繼續(xù)關(guān)注億速云網(wǎng)站,小編會(huì)繼續(xù)努力為大家?guī)砀鄬?shí)用的文章!
免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。