溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點(diǎn)擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

部署HDFS

發(fā)布時(shí)間:2020-07-03 08:40:27 來源:網(wǎng)絡(luò) 閱讀:324 作者:sw5720 欄目:大數(shù)據(jù)

HDFS存放副本時(shí)會(huì)優(yōu)先在同一個(gè)數(shù)據(jù)節(jié)點(diǎn)備份一份,然后在不同的虛擬機(jī)架上備份

namenode的HA是靠主備方式保證的,自動(dòng)切換時(shí)要用到zookeeper,手動(dòng)切換可以通過命令,備節(jié)點(diǎn)可以在數(shù)據(jù)節(jié)點(diǎn)上,一套HDFS-HA最少需要3臺(tái)機(jī)子

安裝步驟:

#yum install java

#wget http://mirrors.hust.edu.cn/apache/hadoop/common/hadoop-2.6.0/hadoop-2.6.0.tar.gz

#tar -zxvf hadoop-2

#mv hadoop-2.6.0 /usr/local/hadoop

ssh免密碼登錄,分發(fā)公鑰:

#ssh-keygen -t rsa

#ssh-copy-id -i /root/.ssh/id_rsa.pub '-p 22 root@192.168.128.129'

#vim /usr/local/hadoop/etc/hadoop/hadoop-env.sh

export JAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk-1.7.0.79.x86_64/jre 指定jdk目錄
export HADOOP_PID_DIR=${HADOOP_HOME}/pids
export HADOOP_SSH_OPTS="-p 1234"   如果非22的ssh端口,需要這行來指定端口

#vim /usr/local/hadoop/etc/hadoop/core-site.xml 編輯主節(jié)點(diǎn)主要參數(shù)

<configuration>
<property>
   <name>hadoop.tmp.dir</name>
   <value>file:/hdfs/tmp</value>指定上傳到hdfs數(shù)據(jù)臨時(shí)存放目錄,多硬盤可設(shè)多個(gè)來備份和提高效率
</property>
<property>
    <name>fs.default.name</name>
    <value>hdfs://192.168.128.129:9000</value>      指定默認(rèn)主的訪問方式
    </property>
</configuration>

#mkdir -p /hdfs/tmp

#vim /usr/local/hadoop/etc/hadoop/hdfs-site.xml      編輯hdfs數(shù)據(jù)存放參數(shù)

<configuration>
<property>
    <name>dfs.replication</name>
    <value>2</value>                    數(shù)據(jù)備份數(shù)
</property>
<property>
    <name>dfs.namenode.name.dir</name>
    <value>file:/hdfs/name</value>    name節(jié)點(diǎn)存放數(shù)據(jù)位置,多硬盤可設(shè)置多個(gè)來備份和提高效率
</property>
<property>
    <name>dfs.datannode.data.dir</name>
    <value>file:/hdfs/nodedata</value>    數(shù)據(jù)節(jié)點(diǎn)存數(shù)據(jù)位置,多硬盤可設(shè)多個(gè)來備份和提高效率
</property>
<property>
    <name>dfs.namenode.secondary.http-address</name>    指定備name節(jié)點(diǎn)ip
    <value>hdfs://備節(jié)點(diǎn)ip:50070</value>
</property>
    <name>dfs.webhdfs.enabled</name>     開啟網(wǎng)頁看結(jié)構(gòu)功能
    <value>true</value> 
</property>
<property>
   <name>dfs.permissions</name>        文件操作時(shí)禁止檢查權(quán)限
   <value>false</value>
</property>
</configuration>

#mkdir /hdfs/name

#mkdir /hdfs/nodedata

#vim /usr/local/hadoop/etc/hadoop/slaves 添加數(shù)據(jù)節(jié)點(diǎn)的ip或主機(jī)名

#export HADOOP_ROOT_LOGGER=DEBUG,console 為了解決本地庫報(bào)錯(cuò),設(shè)置前端顯示日志

#/usr/local/hadoop/bin/hadoop fs -ls 主要看看需要的GLIBC版本

#wget http://ftp.gnu.org/gnu/glibc/glibc-2.14.tar.gz

#tar -zxvf glibc-2.14

#mkdir glibc-build

#cd glibc-build

#../glibc-2.14/configur --prefix=/usr

#make && make install 最后出現(xiàn)的libc5啥的錯(cuò)誤無視他

#shutdown -r 0 重啟系統(tǒng)生效


開始使用:

#/usr/local/hadoop/bin/hadoop namenode -format 格式化

#/usr/local/hadoop/sbin/start-dfs.sh     在namenode節(jié)點(diǎn)啟動(dòng)HDFS  stop-dfs.sh 停止


訪問 http://ip:50070  看網(wǎng)頁狀態(tài)


監(jiān)控:

獲取HDFS狀態(tài)命令:

#/usr/local/hadoop/bin/hadoop dfsadmin -report


如果livenode是0的話就刪了所有節(jié)點(diǎn)的tmp、name、data文件夾里的東西,然后再格式化,啟動(dòng)




向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI