溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點(diǎn)擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

hadoop安裝與配置

發(fā)布時間:2020-06-15 15:38:22 來源:網(wǎng)絡(luò) 閱讀:534 作者:素顏豬 欄目:大數(shù)據(jù)

1.檢查JDK版本


2.時間同步


3.設(shè)置免密碼登錄

#生成密鑰(node1,node2,node3,node4)
ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
cd ~/.ssh/
ls
#說明
##id_ds 私鑰
##is_dsa.pub 公鑰
#將公鑰文件追加到本地的認(rèn)證文件中(node1,node2,node3,node4)
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
ssh 192.168.2.136
#Last login: Sun Jul  9 14:14:35 2017 from 192.168.2.136,表示登錄成功,并且是不需要輸入密碼的
exit
#logout 退出
將node1中的公鑰復(fù)制到node2,node3,node4中
 scp ./id_dsa.pub root@192.168.2.137:/opt/
 scp ./id_dsa.pub root@192.168.2.138:/opt/
 scp ./id_dsa.pub root@192.168.2.139:/opt/
將/opt/id_dsa.pub添加到node2,node3,node4的認(rèn)證文件中
 cat /opt/id_dsa.pub >> ~/.ssh/authorized_keys


4.設(shè)置node1為NameNode,node2,node3,node4為datanode

將hadoop壓縮包上傳到node1的/root目錄
tar -zxvf hadoop-2.5.1_x64.tar.gz

mv hadoop-2.5.1 /home/
cd /home/
ls
cd hadoop-2.5.1
ls
cd etc/hadoop

#配置1,修改hadoopenv.sh
vi hadoop-env.sh
#將jdk的安裝目錄添加到這個文件
export JAVA_HOME=/usr/java/jdk1.7.0_79

#配置2,修改core-site.xml
    vi core-site.xml
		<configuration>
		    <property>
		        <name>fs.defaultFS</name>
		        <value>hdfs://192.168.2.136:9000</value>
		    </property>
		    <property>
		        <name>hadoop.tmp.dir</name>
		        <value>/opt/hadoop-2.5</value>
		    </property>
		</configuration>

	#配置3,修改hdfs-site.xml
		vi hdfs-site.xml
		<configuration>
		    <property>
		        <name>dfs.namenode.secondary.http-address</name>
		        <value>192.168.2.137:50090</value>
		    </property>
		    <property>
		        <name>dfs.namenode.secondary.https-address</name>
		        <value>192.168.2.137:50091</value>
		    </property>
		</configuration>

	#配置4,修改slaves
		vi slaves
		192.168.2.137
		192.168.2.138
		192.168.2.139

	#配置5,修改masters
		vi masters
		192.168.2.137


5.復(fù)制文件

scp -r hadoop-2.5.1/ root@192.168.2.137:/home/
scp -r hadoop-2.5.1/ root@192.168.2.138:/home/
scp -r hadoop-2.5.1/ root@192.168.2.139:/home/


6.配置hadoop環(huán)境變量 

vi ~/.bash_profile
export HADOOP_HOME=/home/hadoop-2.5.1
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin


7.復(fù)制文件

scp ~/.bash_profile root@192.168.2.137:/root/
scp ~/.bash_profile root@192.168.2.138:/root/
scp ~/.bash_profile root@192.168.2.139:/root/


8.重新加載~/.bash_profile

source ~/.bash_profile


9.格式化hdf文件系統(tǒng),只能在NameNode(node1)上使用

hdfs namenode -format


10.查看生成文件fsp_w_picpath

cd /opt/hadoop-2.5/dfs/name/current
ls -l


11.啟動節(jié)點(diǎn)

start-dfs.sh
#start-all.sh


12.關(guān)閉防火墻

service iptables stop


13.監(jiān)控頁面進(jìn)行訪問

http://192.168.2.136:50070/dfshealth.html#tab-overview


14.說明:保證/etc/hosts下的配置正確


向AI問一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進(jìn)行舉報,并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI