溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

Linux單機偽分布式安裝的示例分析

發(fā)布時間:2021-11-12 13:56:36 來源:億速云 閱讀:145 作者:小新 欄目:云計算

這篇文章將為大家詳細講解有關(guān)Linux單機偽分布式安裝的示例分析,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。

1、服務(wù)器信息

一臺linux服務(wù)器【Linux 5.5,x86_64,用于安裝hadoop】

2、需要軟件

jdk1.6.0_31

hadoop-2.2.0.tar.gz

3、建立ssh無密碼登錄

主要是每次啟動hadoop時不用多次輸入登錄Linux操作系統(tǒng)密碼。

(1)實現(xiàn)無密碼登錄本機

$ ssh-keygen -t rsa

直接回車,會提示輸入存儲密碼的文件名,輸入id_rsa,完成后會在~/.ssh/生成兩個文件:id_rsa和id_rsa.pub。

$ ssh-keygen -t dsa

直接回車,會提示輸入存儲密碼的文件名,輸入id_dsa,完成后會在~/.ssh/生成兩個文件:id_dsa和id_dsa.pub。

$cat~/.ssh/id_rsa.pub  >>~/.ssh/authorized_keys  將生成的密鑰串在鑰匙鏈上

$cat~/.ssh/id_dsa.pub  >>~/.ssh/authorized_keys  將生成的密鑰串在鑰匙鏈上

$chmod 600  ~/.ssh/authorized_keys。

然后 ssh localhost 驗證是否成功,第一次要你輸入yes,以后就不需要了。

4、安裝hadoop

保證待安裝hadoop的服務(wù)器上安裝jdk;

假設(shè)hadoop安裝在/home/username/hadoop目錄下(username為操作系統(tǒng)登錄用戶),以下統(tǒng)稱hadoop安裝目錄。

(1)解壓hadoop-2.2.0.tar.gz到hadoop安裝目錄下。

(2)配置系統(tǒng)環(huán)境變量

可修改/etc/profile文件,在文件末尾添加如下內(nèi)容。本文是修改/home/username/.bash_profile,修改完后請重新登錄ssh。

exportHADOOP_PREFIX="/home/username/hadoop/hadoop-2.2.0"  

PATH="$PATH:$HADOOP_PREFIX/bin:$HADOOP_PREFIX/sbin"  

export HADOOP_MAPRED_HOME=${HADOOP_PREFIX}  

export HADOOP_COMMON_HOME=${HADOOP_PREFIX}  

export HADOOP_HDFS_HOME=${HADOOP_PREFIX}  

export HADOOP_YARN_HOME=${HADOOP_PREFIX}

export HADOOP_CONF_DIR="${HADOOP_PREFIX}/etc/hadoop"

export YARN_CONF_DIR="${HADOOP_PREFIX}/etc/hadoop"

export HADOOP_COMMON_LIB_NATIVE_DIR=${HADOOP_PREFIX}/lib/native

exportHADOOP_OPTS="-Djava.library.path=$HADOOP_PREFIX/lib"

(3)配置hadoop

需要修改以下配置文件:

hadoop-env.sh

修改JAVA_HOME,這里JAVA_HOME的路徑必須指定為真實的路徑,不能引用${JAVA_HOME},否則運行的時候會有錯誤JAVA_HOME is not set。配置如下:

export JAVA_HOME=/usr/java/jdk1.6.0_26

core-site.xml

hdfs-site.xml

其中,/home/username/hadoop/dfs/name,/home/username/hadoop/dfs/data都是文件系統(tǒng)中的目錄,需要先新建。

mapred-site.xml

yarn-site.xml

注意yarn.nodemanager.aux-services屬性的值應(yīng)為mapreduce_shuffle,而不是mapreduce.shuffle(差別為“_”與“.”),否則會出現(xiàn)錯誤。

5、啟動hadoop

完成以上配置后可以檢測是否配置成功。

(1)格式化hadoop的文件系統(tǒng)HDFS

在啟動hadoop之前,需要格式化hadoop的文件系統(tǒng)HDFS。進入/home/username/hadoop/hadoop-2.2.0/bin文件夾,執(zhí)行以下命令進行格式化:

$ hdfs namenode -format

(2)啟動hadoop

格式化文件系統(tǒng)成功后,進入/home/username/hadoop/hadoop-2.2.0/sbin目錄,啟動hadoop。執(zhí)行以下命令:

$ start-all.sh   --此命令在hadoop2.2.0版本已被遺棄。

hadoop2.2.0推薦使用以下命令啟動:

首先啟動hdfs:

  $ start-dfs.sh

  或者

 $ hadoop-daemon.sh startnamenode

 $ hadoop-daemon.sh startdatanode

然后啟動yarn daemons:

  $ start-yarn.sh

  或者

  $ yarn-daemon.sh startresourcemanager

  $ yarn-daemon.sh startnodemanager

啟動完成后訪問以下地址查看dfs狀態(tài),如果成功會顯示對應(yīng)界面:

http://x.x.x.x:50070/dfshealth.jsp    HDFS的web界面

datanode:

http://x.x.x.x:50075/

resourcemanager(JobTracker replacement):

http://x.x.x.x:8088/cluster     Web app /cluster

nodemanager(TaskTrackerreplacement):

http://x.x.x.x:8042/node    Web app /node

關(guān)于“Linux單機偽分布式安裝的示例分析”這篇文章就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,使各位可以學(xué)到更多知識,如果覺得文章不錯,請把它分享出去讓更多的人看到。

向AI問一下細節(jié)

免責(zé)聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI