分布式平臺搭建

分布式平臺搭建

  • acmore
  • 2018.6.17

1. 搭建Hadoop

以下操作皆基于Ubuntu 16.04 32位環(huán)境 & Hadoop 2.7.3版本

1.1 單節(jié)點環(huán)境

  • 首先安裝相關的準備環(huán)境
$ sudo apt update
$ sudo apt install -y default-jdk
$ sudo apt install -y vim
$ sudo apt install -y openssh-server
  • 配置JAVA_HOME
    • 一般來說Ubuntu平臺上通過default-jdk安裝的java位置在/usr/lib/jvm/default-jdk目錄
    • /etc/profile中添加下邊兩行內(nèi)容并保存退出
    export JAVA_HOME=/usr/lib/jvm/default-java
    export PATH=$PATH:$JAVA_HOME/bin
    
  • 添加用戶和用戶組
$ sudo addgroup hadoop
$ sudo adduser --ingroup hadoop hduser
$ sudo usermod -a -G sudo hduser
  • 配置ssh
    • 切換到hduser橄务,并執(zhí)行以下操作
    $ ssh-keygen -t rsa -P ""
    $ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
    
    • 之后嘗試使用下邊的命令連接本機存崖,這個操作也會將本機加入到known hosts里
    $ ssh localhost
    
  • 安裝Hadoop
    • 下載hadoop-2.7.3.tar.gz惕味,以下假定工作目錄為/home/hduser
    $ tar -zxvf hadoop-2.7.3.tar.gz
    $ mv hadoop-2.7.3/ hadoop/
    $ sudo chown -R hduser:hadoop hadoop
    
  • 編輯bash配置
    • 打開.bashrc晴音,加入以下內(nèi)容(也可以修改/etc/profile,但是使用.bashrc更加靈活)
    export JAVA_HOME=/usr/lib/jvm/default-java
    export HADOOP_HOME=/home/hduser/hadoop
    export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin
    
  • 配置Hadoop(不同版本的hadoop的配置方案會有不同,配置之前記得要確定版本)
    • 修改~/hadoop/etc/hadoop/hadoop-env.sh,在文件中添加下邊的內(nèi)容
    export JAVA_HOME=/usr/lib/jvm/default-java
    
    • 修改~/hadoop/etc/hadoop/yarn-env.sh,在文件中添加下邊的內(nèi)容
    export JAVA_HOME=/usr/lib/jvm/default-java
    
    • 修改~/hadoop/etc/hadoop/core-site.xml
      • 執(zhí)行以下命令
      $ sudo mkdir -p /home/hduser/tmp
      $ sudo chown hduser:hadoop /home/hduser/tmp
      $ sudo chmod 750 /home/hduser/tmp
      
      • 在core-site.xml添加以下內(nèi)容(各個屬性的內(nèi)容可以按照實際情況修改)
      <configuration>
          <property>
              <name>fs.defaultFS</name>
              <value>hdfs://master:9000</value>
          </property>
          <property>
              <name>io.file.buffer.size</name>
              <value>131072</value>
          </property>
         <property>
              <name>hadoop.tmp.dir</name>
              <value>file:/home/hduser/tmp</value>
              <description>Abase for other temporary directories.</description>
          </property>
          <property>
              <name>hadoop.proxyuser.hduser.hosts</name>
             <value>*</value>
          </property>
          <property>
              <name>hadoop.proxyuser.hduser.groups</name>
              <value>*</value>
          </property>
      </configuration>
      
    • 修改~/hadoop/etc/hadoop/hdfs-site.xml朴皆,添加以下內(nèi)容(各個屬性的內(nèi)容可以按照實際情況修改)
      • 執(zhí)行以下命令
      $ sudo mkdir -p /home/hduser/dfs/name
      $ sudo chown hduser:hadoop /home/hduser/dfs/name
      $ sudo chmod 750 /home/hduser/dfs/name
      $ sudo mkdir -p /home/hduser/dfs/data
      $ sudo chown hduser:hadoop /home/hduser/dfs/data
      $ sudo chmod 750 /home/hduser/dfs/data
      
      • 在hdfs-site.xml中添加以下內(nèi)容
      <configuration>
          <property>
              <name>dfs.namenode.secondary.http-address</name>
              <value>master:9001</value>
          </property>
          <property>
              <name>dfs.namenode.name.dir</name>
              <value>file:/home/hduser/dfs/name</value>
          </property>
          <property>
              <name>dfs.datanode.data.dir</name>
              <value>file:/home/hduser/dfs/data</value>
          </property>
          <property>
              <name>dfs.replication</name>
              <value>3</value>
          </property>
          <property>
              <name>dfs.webhdfs.enabled</name>
              <value>true</value>
          </property>
      </configuration>
      
    • 修改~/hadoop/etc/hadoop/mapred-site.xml,添加以下內(nèi)容(各個屬性的內(nèi)容可以按照實際情況修改)
    <configuration>
        <property>
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
        </property>
        <property>
            <name>mapreduce.jobhistory.address</name>
            <value>master:10020</value>
        </property>
        <property>
            <name>mapreduce.jobhistory.webapp.address</name>
            <value>master:19888</value>
        </property>
    </configuration>
    
    • 修改~/hadoop/etc/hadoop/yarn-site.xml(各個屬性的內(nèi)容可以按照實際情況修改)
    <configuration>
        <property>
            <name>yarn.nodemanager.aux-services</name>
            <value>mapreduce_shuffle</value>
        </property>
        <property>
            <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
            <value>org.apache.hadoop.mapred.ShuffleHandler</value>
        </property>
        <property>
            <name>yarn.resourcemanager.address</name>
            <value> master:8032</value>
        </property>
        <property>
            <name>yarn.resourcemanager.scheduler.address</name>
            <value> master:8030</value>
        </property>
        <property>
            <name>yarn.resourcemanager.resource-tracker.address</name>
            <value> master:8031</value>
        </property>
        <property>
            <name>yarn.resourcemanager.admin.address</name>
            <value> master:8033</value>
        </property>
        <property>
            <name>yarn.resourcemanager.webapp.address</name>
            <value> master:8088</value>
        </property>
    </configuration>
    
  • 格式化Namenode
    • 進入~/hadoop/bin目錄下泛粹,執(zhí)行以下操作
    $ ./hdfs namenode –format
    
  • 啟動hadoop
    • ~/hadoop/sbin執(zhí)行以下命令
    $ ./start-dfs.sh
    $ ./start-yarn.sh
    
    • 之后通過jps命令可以看到以下結果遂铡,說明啟動成功
    13058   Jps
    13026   NodeManager
    12916   ResourceManager
    12169   DataNode
    

1.2 集群環(huán)境

此處默認master和slave已經(jīng)按照單機節(jié)點配置完成

  • 設置網(wǎng)絡
    • 我的例子是一臺master一臺slave,分別確定兩者的ip晶姊,然后在兩臺機器的/etc/hosts中寫入以下內(nèi)容
    192.168.0.1    master
    192.168.0.2    slave
    
  • 配置ssh免密登錄
    • 在master上執(zhí)行以下命令
    $ ssh-copy-id -i ~/.ssh/id_rsa.pub hduser@slave
    
    • 在slave上執(zhí)行以下命令
    $ ssh-copy-id -i ~/.ssh/id_rsa.pub hduser@master
    
    • 之后兩方互相登錄測試一下是否可以免密登錄
  • 配置~/hadoop/etc/hadoop/slaves
    • 在master機器的slaves文件中添加以下內(nèi)容
    master
    slave
    
  • 格式化Namenode
    • 進入master的~/hadoop/bin目錄下扒接,執(zhí)行以下操作
    $ ./hdfs namenode –format
    
  • 啟動hadoop
    • 在master的~/hadoop/sbin執(zhí)行以下命令
    $ ./start-dfs.sh
    $ ./start-yarn.sh
    
    • 之后通過jps命令可以看到以下結果,說明啟動成功
      • master中
      4048    Jps
      3899    ResourceManager
      4013    NodeManager
      3726    SecondaryNameNode
      3423    NameNode
      3535    DataNode
      
      • slave中
      2754    DataNode
      3012    Jps
      2903    NodeManager
      

2. 搭建Spark

2.1 Spark平臺

  • 下載Spark

    • 這里下載和hadoop版本對應的spark,假定工作目錄為/home/hduser
    • 進行如下操作解壓壓縮包(每個節(jié)點都要進行)
    $ tar -zxvf spark-2.3.1-bin-hadoop2.7.tgz
    
  • 配置~/.bashrc文件

    • 在.bashrc文件中添加以下內(nèi)容(每個節(jié)點都要添加)
    export SPARK_HOME=/home/hduser/spark
    export PATH=$PATH:$SPARK_HOME/bin
    
  • 配置~/spark/conf/slaves文件

    • 在兩個節(jié)點的salves文件中添加以下內(nèi)容
    master
    slave
    
  • 啟動Spark

    • 在master的~/spark/sbin中執(zhí)行以下命令
    ./start-all.sh
    
    • 在master中執(zhí)行jps钾怔,發(fā)現(xiàn)以下結果說明spark運行成功
    5257    Worker
    5177    Master
    3726    SecondaryNameNode
    5326    Jps
    3432    NameNode
    3535    DataNode
    
    • 在slave中執(zhí)行jsp碱呼,發(fā)現(xiàn)一下結果說明spark運行成功
    2754    DataNode
    3717    Worker
    3771    Jps
    

2.2. 配置Scala

  • 下載Scala

    • 這里相應版本的scala壓縮包,假定工作目錄為/home/hduser
    • 進行如下操作解壓壓縮包(只需要在master進行)
    $ tar -zxvf scala-2.12.6.tgz
    
  • 配置~/.bashrc文件

    • 在.bashrc文件中添加以下內(nèi)容(只需要在master在master上執(zhí)行以下命令)
    export SCALA_HOME=/home/hduser/scala
    export PATH=$PATH:$SCALA_HOME/bin
    

2.3 配置Eclipse

  • 安裝Eclipse

    • 在master上執(zhí)行以下命令
    $ sudo apt install eclipse-platform
    
  • 安裝Eclipse插件


參考資料

  1. 在Ubuntu上搭建單節(jié)點Hadoop
  2. 在Ubuntu上搭建Hadoop集群
?著作權歸作者所有,轉載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末宗侦,一起剝皮案震驚了整個濱河市愚臀,隨后出現(xiàn)的幾起案子,更是在濱河造成了極大的恐慌矾利,老刑警劉巖姑裂,帶你破解...
    沈念sama閱讀 211,348評論 6 491
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件,死亡現(xiàn)場離奇詭異梦皮,居然都是意外死亡炭分,警方通過查閱死者的電腦和手機桃焕,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 90,122評論 2 385
  • 文/潘曉璐 我一進店門剑肯,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人观堂,你說我怎么就攤上這事让网。” “怎么了师痕?”我有些...
    開封第一講書人閱讀 156,936評論 0 347
  • 文/不壞的土叔 我叫張陵溃睹,是天一觀的道長。 經(jīng)常有香客問我胰坟,道長因篇,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 56,427評論 1 283
  • 正文 為了忘掉前任笔横,我火速辦了婚禮竞滓,結果婚禮上,老公的妹妹穿的比我還像新娘吹缔。我一直安慰自己商佑,他們只是感情好,可當我...
    茶點故事閱讀 65,467評論 6 385
  • 文/花漫 我一把揭開白布厢塘。 她就那樣靜靜地躺著茶没,像睡著了一般。 火紅的嫁衣襯著肌膚如雪晚碾。 梳的紋絲不亂的頭發(fā)上抓半,一...
    開封第一講書人閱讀 49,785評論 1 290
  • 那天,我揣著相機與錄音格嘁,去河邊找鬼笛求。 笑死,一個胖子當著我的面吹牛,可吹牛的內(nèi)容都是我干的涣易。 我是一名探鬼主播画机,決...
    沈念sama閱讀 38,931評論 3 406
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼新症!你這毒婦竟也來了步氏?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 37,696評論 0 266
  • 序言:老撾萬榮一對情侶失蹤徒爹,失蹤者是張志新(化名)和其女友劉穎荚醒,沒想到半個月后,有當?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體隆嗅,經(jīng)...
    沈念sama閱讀 44,141評論 1 303
  • 正文 獨居荒郊野嶺守林人離奇死亡界阁,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點故事閱讀 36,483評論 2 327
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發(fā)現(xiàn)自己被綠了胖喳。 大學時的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片泡躯。...
    茶點故事閱讀 38,625評論 1 340
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖丽焊,靈堂內(nèi)的尸體忽然破棺而出较剃,到底是詐尸還是另有隱情,我是刑警寧澤技健,帶...
    沈念sama閱讀 34,291評論 4 329
  • 正文 年R本政府宣布写穴,位于F島的核電站,受9級特大地震影響雌贱,放射性物質發(fā)生泄漏啊送。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點故事閱讀 39,892評論 3 312
  • 文/蒙蒙 一欣孤、第九天 我趴在偏房一處隱蔽的房頂上張望馋没。 院中可真熱鬧,春花似錦导街、人聲如沸披泪。這莊子的主人今日做“春日...
    開封第一講書人閱讀 30,741評論 0 21
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽款票。三九已至,卻和暖如春泽论,著一層夾襖步出監(jiān)牢的瞬間艾少,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 31,977評論 1 265
  • 我被黑心中介騙來泰國打工翼悴, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留缚够,地道東北人幔妨。 一個月前我還...
    沈念sama閱讀 46,324評論 2 360
  • 正文 我出身青樓,卻偏偏與公主長得像谍椅,于是被迫代替她去往敵國和親误堡。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 43,492評論 2 348

推薦閱讀更多精彩內(nèi)容

  • 一雏吭、系統(tǒng)參數(shù)配置優(yōu)化 1锁施、系統(tǒng)內(nèi)核參數(shù)優(yōu)化配置 修改文件/etc/sysctl.conf,添加如下配置杖们,然后執(zhí)行s...
    張偉科閱讀 3,722評論 0 14
  • --------"道路是曲折的,前途是光明的悉抵。"最近又涉及到了hadoop以及spark的安裝,之前課題設計中有要...
    九七學姐閱讀 3,030評論 3 5
  • 最近在學習大數(shù)據(jù)技術摘完,朋友叫我直接學習Spark姥饰,英雄不問出處,菜鳥不問對錯孝治,于是我就開始了Spark學習列粪。 為什...
    Plokmijn閱讀 26,504評論 6 26
  • 說明:本文所有操作均在 64位 ubuntu 16.04 操作系統(tǒng)下進行 準備 通過物理機器虛擬化 4 臺虛擬機:...
    kviccn閱讀 2,757評論 4 5
  • 寫在前面 如圖某音樂播放器,這個效果就是所謂的"沉浸式"效果荆秦。 Android與ios效果互仿早已不是什么稀奇的事...
    smart_dev閱讀 3,220評論 13 39