溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務(wù)條款》

hadoop(cdh版)下載安裝即配置

發(fā)布時間:2020-07-26 11:38:42 來源:網(wǎng)絡(luò) 閱讀:1394 作者:wx5d513eb9e82fc 欄目:大數(shù)據(jù)
  1. 下載hadoop壓縮包,這里下載的是5.14.2版本(地址:http://archive.cloudera.com/cdh6/cdh/5/)
    hadoop(cdh版)下載安裝即配置

hadoop(cdh版)下載安裝即配置
2.通過Xftp工具將壓縮包拉到虛擬機/opt目錄下(目錄個人隨意)
hadoop(cdh版)下載安裝即配置
3.解壓hadoop壓縮包(命令:tar -zxvf hadoop-2.6.0-cdh6.14.2.tar.gz)hadoop(cdh版)下載安裝即配置
4.這里為了清晰,新建一個文件夾bigdata單獨存放解壓后的文件,并重命名
新建:mkdir bigdata
移動: mv hadoop-2.6.0-cdh6.14.2 ./bigdata/hadoop260hadoop(cdh版)下載安裝即配置
5.重頭:修改配置文件,移動至/etc/hadoop目錄下,ls命令,下圖中圈選的文件是本次我們需要進行配置的hadoop(cdh版)下載安裝即配置
6.配置1:vi hadoop-env.sh修改如下位置,修改成自己JAVA_HOME的路徑,可以echo $JAVA_HOME查看,修改完保存退出
hadoop(cdh版)下載安裝即配置
7.配置2:vi core-site.xml修改如下位置hadoop(cdh版)下載安裝即配置
hadoop(cdh版)下載安裝即配置

<property>
                <name>fs.defaultFS</name>
                <value>hdfs://192.168.56.109:9000</value>
        </property>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/opt/hadoopdata</value>
        </property>
        <property>
                <name>hadoop.proxyuser.root.users</name>
                <value>*</value>
        </property>
        <property>
                <name>hadoop.proxyuser.root.groups</name>
                <value>*</value>
        </property>

8.配置3:vi hdfs-site.xml,和上一步一樣的標簽中加入如下代碼hadoop(cdh版)下載安裝即配置

       <property>
                <name>dfs.replication</name>
                <value>1</value>
        </property>

9.配置4,這個文件需要自己copy,和上一步一樣的標簽中加入如下代碼
命令:cp mapred-site.xml.template mapred-site.xml
配置:vi mapred-site.xmlhadoop(cdh版)下載安裝即配置

        <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
        </property>

10.配置5:vi yarn-site.xml,中間有行注釋可以刪掉直接hadoop(cdh版)下載安裝即配置

<property>
                <name>yarn.resourcemanager.localhost</name>
                <value>localhost</value>
        </property>
        <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
        </property>

11.配置六:vi /etc/profile,移動至最后,加入以下代碼hadoop(cdh版)下載安裝即配置

export HADOOP_HOME=/opt/bigdata/hadoop260
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
export HADOOP_INSTALL=$HADOOP_HOME

12.激活配置文件:source /etc/profile
13.格式化namenode:hdfs namenode -format
14.運行:start-all.sh,然后每一步都輸入yes
15.查看運行情況:jps,如果能查看到如下5個進程,則代表配置運行成功,如果少哪一個,就去檢查對應(yīng)的配置文件hadoop(cdh版)下載安裝即配置

向AI問一下細節(jié)

免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關(guān)證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI