溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

hadoop中入門配置知識點有哪些

發(fā)布時間:2021-12-07 14:24:03 來源:億速云 閱讀:122 作者:小新 欄目:云計算

這篇文章給大家分享的是有關hadoop中入門配置知識點有哪些的內(nèi)容。小編覺得挺實用的,因此分享給大家做個參考,一起跟隨小編過來看看吧。

環(huán)境

    本人使用的是 XUbuntu14.04 64位,在虛擬機下搭建的

  • 安裝 JDK,配置環(huán)境變量

        配置 classpath,修改所有用戶的環(huán)境變量

sudo vim /etc/profile
#在文件最后添加 
#set java environment
export JAVA_HOME={path}
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin 
source/etc/profile  ##使環(huán)境變量生效
  • 配置SSH無密碼嗎登陸

            在用戶根目錄創(chuàng)建隱藏文件夾 .ssh  (沒有的需要創(chuàng)建)

mkdir .ssh
ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

            驗證下 ssh ,

 shh localhost
  • 安裝hadoop (我用的是2.7)

    • 解壓文件夾

sudo tar -zxvf hadoop-2.7.1.tar.gz -C /usr/local/hadoop    # 指定目錄,可根據(jù)自己的喜好選擇放在哪
    • 創(chuàng)建 hadooop 工作所需要的文件目錄

    • 設置環(huán)境變量 (進入$HADOOP_HOME/etc/hadoop)

    sudo vim /etc/profile
    export HADOOP_HOME={path}
    #path 后面繼續(xù)跟
    export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

    • 配置文件

      • 配置 hadoop-env.sh

    export JAVA_HOME=${JAVA_HOME}          # JAVA_HOME JDK 路徑

      • 配置 core-site.xml (關于Hadoop配置項的一點說明雖然只需要配置fs.defaultFS 和 dfs.replication 就可以運行(官方教程如此),不過若沒有配置 hadoop.tmp.dir 參數(shù),則默認使用的臨時目錄為 /tmp/hadoo-hadoop,而這個目錄在重啟時有可能被系統(tǒng)清理掉,導致必須重新執(zhí)行 format 才行。所以我們進行了設置,同時也指定 dfs.namenode.name.dir 和 dfs.datanode.data.dir,否則在接下來的步驟中可能會出錯。shay為主機名,如果不知道自己的主機名可以 cat 一下 /etc/hostname)

    <configuration>
        <property>
            <name>hadoop.tmp.dir</name>
            <value>file:/usr/local/hadoop/tmp</value>
        </property>
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://shay:9000</value>
        </property>
    </configuration>

      • 配置hdfs-site.xml

    <configuration>
        <property>
            <name>dfs.replication</name>
            <value>1</value>
        </property>
        <property>
            <name>dfs.namenode.name.dir</name>
            <value>file:/usr/local/hadoop/tmp/dfs/name</value>
        </property>
        <property>
            <name>dfs.datanode.data.dir</name>
            <value>file:/usr/local/hadoop/tmp/dfs/data</value>
        </property>
        <!-- 若有其他主機,則可以打開這個
        <property>
            <name>dfs.namenode.secondary.http-address</name>
            <value>shay:50090</value>
        </property>
        -->
    </configuration>

      • 配置 mapred-site.xml 

    <configuration>
        <property>        
            <name>mapreduce.framework.name</name>
             <value>yarn</value>
        </property>
    </configuration>

      • 配置 yarn-site.xml

    <configuration>
        <property>        
            <name>yarn.nodemanager.aux-services</name>        
            <value>mapreduce_shuffle</value>
        </property>
        <property>
            <name>yarn.resourcemanager.hostname</name>
            <value>shay</value>
        </property>
    </configuration>

      • 配置 yarn-env.sh

    export JAVA_HOME=${JAVA_HOME}

    • Hadoop 啟動

      • 執(zhí)行 namenode 格式化

    hdfs namenode -format

      • 開啟守護進程

    start-dfs.sh        # NameNode 和 DataNode 守護進程
    start-yarn.sh       # ResourceManager 和 NodeManager 守護進程
      • 驗證

    jps

感謝各位的閱讀!關于“hadoop中入門配置知識點有哪些”這篇文章就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,讓大家可以學到更多知識,如果覺得文章不錯,可以把它分享出去讓更多的人看到吧!

向AI問一下細節(jié)
推薦閱讀:
  1. Hadoop 入門
  2. Hadoop入門

免責聲明:本站發(fā)布的內(nèi)容(圖片、視頻和文字)以原創(chuàng)、轉(zhuǎn)載和分享為主,文章觀點不代表本網(wǎng)站立場,如果涉及侵權(quán)請聯(lián)系站長郵箱:is@yisu.com進行舉報,并提供相關證據(jù),一經(jīng)查實,將立刻刪除涉嫌侵權(quán)內(nèi)容。

AI