国产伦综合五月av在线_99热这里知有国产精品_国产AV天天操操操_国产黄片一区二区和三区和

藍(lán)鷗旗下品牌:鷗課學(xué)院
全國咨詢電話:13152008057
您的位置: 首頁 > 技術(shù)文章 > 【干貨】簡單三步在Mac上安裝Hadoop

【干貨】簡單三步在Mac上安裝Hadoop

2017-05-22 藍(lán)鷗
17242人 瀏覽:

  一、安裝Homebrew(已安裝的可以省略這一步)

  HomebrewOSX中的方便的套件管理工具。采用Homebrew安裝Hadoop非常簡潔方便(中文官網(wǎng):http://brew.sh/index_zh-cn.html)

  復(fù)制下面代碼在終端中運(yùn)行就可以得到安裝:

  /usr/bin/ruby -e "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/master/install)"

  二、安裝JDK(已安裝的可以省略這一步)

  去Oracle官網(wǎng)下載對(duì)應(yīng)的JDK

  三、SSH 免密碼的設(shè)置

  1、安裝ssh

  直接 sudo apt-get install openssh-server

  2、查看ssh運(yùn)行狀態(tài)

  ps -e | grep ssh

  如果發(fā)現(xiàn) sshd ssh-agent 即表明 ssh服務(wù)基本運(yùn)行正常

  3、生成公鑰和私鑰

  ssh-keygen -t rsa -P ""

  4、將公鑰追加到文件

  cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

  5、測試ssh localhost

  如果發(fā)現(xiàn)不用輸入密碼就可以登錄那么 ssh無密碼機(jī)制就算建立成功了。

  6、失敗原因之一:.ssh及其下屬子文件的權(quán)限問題:

  首選.ssh目錄權(quán)限是700, 兩個(gè)dsa rsa的 私鑰權(quán)限是600,其余文件權(quán)限是644.

  下面列出.ssh目錄及子文件的權(quán)限表:

  drwx------ 2 hadoop hadoop 4096 2014-06-02 15:32 .

  drwxr-xr-x 34 hadoop hadoop 4096 2014-06-02 15:06 ..

  -rw-r--r-- 1 hadoop hadoop 2252 2014-06-02 15:32 authorized_keys

  -rw------- 1 hadoop hadoop 668 2014-06-02 15:11 id_dsa

  -rw-r--r-- 1 hadoop hadoop 615 2014-06-02 15:11 id_dsa.pub

  -rw------- 1 hadoop hadoop 1675 2014-06-02 15:32 id_rsa

  -rw-r--r-- 1 hadoop hadoop 407 2014-06-02 15:32 id_rsa.pub

  -rw-r--r-- 1 hadoop hadoop 442 2014-06-02 15:08 known_hosts

  7、.ssh的父目錄的權(quán)限問題(我的問題就出現(xiàn)在這里):

  .ssh的父目錄文件權(quán)限應(yīng)該是755,即所屬用戶的 用戶文件 (/home下屬的一個(gè)用戶文件)。

  三、安裝Hadoop

  運(yùn)用brew安裝hadoop代碼如下:

  $ brew install hadoop

  hadoop就安裝成功了,我安裝時(shí)最新為2.7.3。

  hadoop將按預(yù)定的路徑安裝(/usr/local/Cellar/hadoop/2.7.3)

  查看其安裝目錄可以用brew list hadoop;

  1.配置相關(guān)的環(huán)境變量

  打開終端:

  輸入 vi .bash_profile

  修改后最終樣子:

  export JAVA_HOME=/Library/Java/JavaVirtualMachines/jdk1.8.0_91.jdk/Contents/Home

  export JRE_HOME=$JAVA_HOME/jre

  export HADOOP_HOME=/usr/local/Cellar/hadoop/2.7.3

  export HADOOP_HOME_WARN_SUPPRESS=1

  export CLASS_HOME=$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH

  export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:${PATH}

  2.配置Hadoop相關(guān)文件

  修改/usr/local/Cellar/hadoop/2.7.3/libexec/etc/hadoop/hadoop-env.sh 文件

  進(jìn)入到 /usr/local/Cellar/hadoop/2.7.3/libexec/etc/hadoop (就是Hadoop的安裝目錄下)

  vi hadoop-env.sh

  需要修改的地方:

  # The java implementation to use.

  export JAVA_HOME="/Library/Java/JavaVirtualMachines/jdk1.8.0_91.jdk/Contents/Home"

  # Extra Java runtime options. Empty by default.

  #export HADOOP_OPTS="$HADOOP_OPTS -Djava.net.preferIPv4Stack=true"

  export HADOOP_OPTS="-Djava.security.krb5.realm=OX.AC.UK -Djava.security.krb5.kdc=kdc0.ox.ac.uk:kdc1.ox.ac.uk"

  # The maximum amount of heap to use, in MB. Default is 1000.

  export HADOOP_HEAPSIZE=2000

  #export HADOOP_NAMENODE_INIT_HEAPSIZE=""

  修改/usr/local/Cellar/hadoop/2.7.3/libexec/etc/hadoop/core-site.xml 文件

  file0003.jpeg

  修改后的

  修改/usr/local/Cellar/hadoop/2.7.3/libexec/etc/hadoop/hdfs-site.xml 文件

file0004.jpeg

  修改/usr/local/Cellar/hadoop/2.7.3/libexec/etc/hadoop/mapred-site.xml.template 文件

file0005.jpeg

  配置完成后

  終端運(yùn)行:  hadoop namenode -format

file0006.jpeg

file0007.jpeg

  運(yùn)行成功效果圖

  進(jìn)入:/usr/local/Cellar/hadoop/2.7.3/libexec/sbin

  運(yùn)行 :

  sh start-all.sh

  或者:sh start-dfs.sh 和 sh start-yarn.sh

file0008.jpeg

file0009.jpeg

  測試命令: jps

file0010.jpeg

  成功的效果圖

  打開以下網(wǎng)址可以測試是否成功:

  Resource Manager : http://localhost:50070

file0011.jpeg

  正常打開的樣子

  JobTracker : http://localhost:8088

file0012.jpeg

  正常打開的樣子

  Specific Node Information : http://localhost:8042

file0013.jpeg

  正常打開的樣子


Hadoop相關(guān)課程推薦——

  大數(shù)據(jù)Hadoop入門必看

  1. 廣告1
  2. 廣告2
  3. 廣告3
  4. 廣告4