溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊(cè)×
其他方式登錄
點(diǎn)擊 登錄注冊(cè) 即表示同意《億速云用戶服務(wù)條款》

Linux下怎樣安裝Hadoop

發(fā)布時(shí)間:2021-11-26 11:47:21 來(lái)源:億速云 閱讀:161 作者:小新 欄目:開(kāi)發(fā)技術(shù)

這篇文章將為大家詳細(xì)講解有關(guān)Linux下怎樣安裝Hadoop,小編覺(jué)得挺實(shí)用的,因此分享給大家做個(gè)參考,希望大家閱讀完這篇文章后可以有所收獲。

Linux下安裝Hadoop教程

目的:此安裝Hadoop教程旨在引導(dǎo)未接觸Hadoop的新手入門(mén)只用,高手請(qǐng)飄過(guò)。

環(huán)境:Fedora12
Kernel2.6.31.5-127.fc12.i686.PAE
Hadoop-0.20.2
jdk-6u18-linux-i586
初學(xué)者可以選擇三臺(tái)實(shí)體機(jī)子做實(shí)驗(yàn),一臺(tái)做NameNode,JobTracker,另外兩臺(tái)做DataNode,TaskTracker。
本安裝Hadoop教程里就用的三臺(tái)機(jī)子做演示。
station1192.168.128.11NameNode
station2192.168.128.22DataNode
station3192.168.128.33DataNode

1、Fedora的安裝就不用演示了,裝好后默認(rèn)是啟動(dòng)sshd服務(wù)的。
不確定的話可以手工查一下
[root@station1~]#servicesshdstatus
如果沒(méi)有啟動(dòng),可以手工啟動(dòng)
[root@station1~]#servicesshdstart

2、建立ssh無(wú)密碼登錄
在NameNode上
[cuijj@station1~]$ssh-keygen-tdsa-P''-f~/.ssh/id_dsa
會(huì)在~/.ssh/生成兩個(gè)文件:id_dsa和id_dsa.pub。這兩個(gè)是成對(duì)出現(xiàn)的。
把id_dsa.pub文件追加到DataNode上的authorized_keys(默認(rèn)是沒(méi)有這個(gè)文件的)內(nèi)。
[cuijj@station1~]$scpid_dsa.pubcuijj@192.168.128.22:/home/cuijj/
登錄到192.168.128.22上(另一臺(tái)DataNode一樣)
[cuijj@station1~]$catid_dsa.pub>>~/.ssh/authorized_keys

3、關(guān)閉防火墻
[root@station1~]#serviceiptablesstop

4、安裝jdk1.6(確保幾臺(tái)機(jī)子的java環(huán)境一樣)
到官網(wǎng)http://java.sun.com下載jdk-6u18-linux-i586.bin,下載后,直接安裝。本安裝Hadoop教程的安裝路徑為/home/cuijj/jdk1.6.0_18。安裝后添加如下語(yǔ)句到/ect/profile中:
exportJAVA_HOME=/home/cuijj/jdk1.6.0_18
exportJRE_HOME=/home/cuijj/jdk1.6.0_18/jre
exportCLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH
exportPATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH

5、安裝hadoop
到官網(wǎng)下載hadoop-0.20.2.tar.gz
[cuijj@station1~]$tarxzvfhadoop-0.20.2.tar.gz
把Hadoop的安裝路徑添加到/etc/profile中
exportHADOOP_HOME=/home/cuijj/hadoop-0.20.2
exportPATH=$HADOOP_HOME/bin:$PATH
為了讓/etc/profile生效,source一下
[cuijj@station1~]$source/etc/profile

6、配置hadoop
安裝Hadoop教程介紹一下如何配置Hadoop。hadoop的配置文件在/conf目錄下
1)配置Java環(huán)境
[cuijj@station1~]$vimhadoop-0.20.2/conf/hadoop-env.sh
exportJAVA_HOME=/home/cuijj/jdk1.6.0_18
2)配置conf/core-site.xml、conf/hdfs-site.xml、conf/mapred-site.xml文件
[cuijj@station1~]$vimhadoop-0.20.2/conf/core-site.xml
[cuijj@station1~]$vimhadoop-0.20.2/conf/mapred-site.xml
[cuijj@station1~]$vimhadoop-0.20.2/conf/hdfs-site.xml
3)將NameNode上拷貝完整的hadoop到DataNode上
4)配置NameNode上的conf/masters和conf/slaves
masters:
192.168.128.11
slaves:
192.168.128.22
192.168.128.33

7、運(yùn)行hadoop
1)格式化文件系統(tǒng)
[cuijj@station1hadoop-0.20.2]$hadoopnamenode-format
2)啟動(dòng)Hadoop
[cuijj@station1hadoop-0.20.2]$bin/start-all.sh
3)用jps命令查看進(jìn)程,NameNode上的結(jié)果如下:
4)查看集群狀態(tài)
[cuijj@station1hadoop-0.20.2]$hadoopdfsadmin-report
5)用hadoop的web方式查看
[cuijj@station1hadoop-0.20.2]$linkshttp://192.168.128.11:50070

8、運(yùn)行wordcount.java程序
1)先在本地磁盤(pán)建立兩個(gè)文件file01和file02
[cuijj@station1~]$echo"Hellocuijjbyecuijj">file01
[cuijj@station1~]$echo"HelloHadoopGoodbyeHadoop">file02
2)在hdfs中建立一個(gè)input目錄
[cuijj@station1~]$hadoopdfs-mkdirinput
3)將file01和file02拷貝到hdfs的input目錄下
[cuijj@station1~]$hadoopdfs-copyFromLocal/home/cuijj/file0*input
4)查看hdfs中有沒(méi)有input目錄
[cuijj@station1~]$hadoopdfs-ls
5)查看input目錄下有沒(méi)有復(fù)制成功file01和file02
6)執(zhí)行wordcount(確保hdfs上沒(méi)有output目錄)
[cuijj@station1hadoop-0.20.2]$hadoopjarhadoop-0.20.2-examples.jarwordcountinputoutput
7)運(yùn)行完成,查看結(jié)果

關(guān)于“Linux下怎樣安裝Hadoop”這篇文章就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,使各位可以學(xué)到更多知識(shí),如果覺(jué)得文章不錯(cuò),請(qǐng)把它分享出去讓更多的人看到。

向AI問(wèn)一下細(xì)節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如果涉及侵權(quán)請(qǐng)聯(lián)系站長(zhǎng)郵箱:is@yisu.com進(jìn)行舉報(bào),并提供相關(guān)證據(jù),一經(jīng)查實(shí),將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI