91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Hadoop2.4.1分布式安裝的示例分析

發布時間:2021-11-12 14:02:04 來源:億速云 閱讀:309 作者:小新 欄目:云計算

小編給大家分享一下Hadoop2.4.1分布式安裝的示例分析,希望大家閱讀完這篇文章之后都有所收獲,下面讓我們一起去探討吧!

1、做好下文中的所有配置:Hadoop1.2.1分布式安裝-1-準備篇。

2、Hadoop2.x的發行版中有個小問題:libhadoop.so.1.0.0在64位OS中存在問題,因為它是32位的,在64位OS中hadoop啟動時會報一個WARN的日志。這個包的作用是調用native的api,可以提高hadoop的性能,如果這個包失效,那就是使用jvm做壓縮等工作,效率就會很低。處理方法就是重新編譯Hadoop,見xxx(link  article)。

3、在打算做namenode的機器上,wget或其他方式下載hadoop的壓縮包,并解壓到本地指定目錄。下載解壓命令參考Linux常用命令。

4、各種配置文件和hadoop1會有所不同,共有七個文件,以下分別描述。

  • /hadoop-2.4.1/etc/hadoop/hadoop-env.sh

# The java implementation to use.
export JAVA_HOME=${JAVA_HOME}
  • /hadoop-2.4.1/etc/hadoop/yarn-env.sh

# some Java parameters
# export JAVA_HOME=/home/y/libexec/jdk1.6.0/
if [ "$JAVA_HOME" != "" ]; then
  #echo "run java in $JAVA_HOME"
  JAVA_HOME=$JAVA_HOME
fi

if [ "$JAVA_HOME" = "" ]; then
  echo "Error: JAVA_HOME is not set."
  exit 1
fi

JAVA=$JAVA_HOME/bin/java
JAVA_HEAP_MAX=-Xmx512m
#默認的heap_max是1000m,我的虛擬機沒這么大內存,所以改小了
  • /hadoop-2.4.1/etc/hadoop/slaves

#寫入你slave的節點。如果是多個就每行一個,寫入host名
bd24
bd25
  • /hadoop-2.4.1/etc/hadoop/core-site.xml

<configuration>
  <property>
    <name>fs.defaultFS</name>
    <value>hdfs://bd23:9000</value>
  </property>
  <property>
    <name>io.file.buffer.size</name>
    <value>131072</value>
  <property>
  <property>
    <name>hadoop.tmp.dir</name>
    <value>file:/home/wukong/a_usr/hadoop-2.4.1/tmp</value>
    <description>Abase for other temporary directories.</description>
  </property>
  <property>
    <name>hadoop.proxyuser.hduser.hosts</name>
    </value>*</value>
  </property>
  <property>
    <name>hadoop.proxyuser.hduser.groups</name.
    <value>*</value>
  </property>
</configuration>
  • hdfs-site.xml

<configuration>
  <property>
    <name>dfs.namenode.secondary.http-address</name>
    <value>bd23:9001</value>
  </property>
  <property>
    <name>dfs.namenode.name.dir</name>
    <value>file:/home/wukong/a_usr/hadoop-2.4.1/name</value>
  </property>
  <property>
    <name>dfs.datanode.data.dir</name>
    <value>file:/home/wukong/a_usr/hadoop-2.4.1/data</value>
  </property>
  <property>
    <name>dfs.replication</name>
    <value>1</value>
  </property>
  <property>
    <name>dfs.webhdfs.enabled</name>
    <value>true</value>
  </property>
</configuration>
  • mapred-site.xml

<configuration>
  <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
  </property>
  <property>
    <name>mapreduce.jobhistory.address</name>
    <value>bd23:10020</value>
  </property>
  <property>
    <name>mapreduce.jobhistory.webapp.address</name>
    <value>bd23.19888</value>
  </property>
</configuration>
  • yarn-site.xml

<configuration>
  <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
  </property>
  <property>
    <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
    <value>org.apache.hadoop.mapred.ShuffleHandler</value>
  </property>
  <property>
    <name>yarn.resourcemanager.address</name>
    <value>bd23:8032</value>
  </property>
  <property>
    <name>yarn.resourcemanager.scheduler.address</name>
    <value>bd23:8030</value>
  </property>
  <property>
    <name>yarn.resourcemanager.resource-tracker.address</name>
    <value>bd23:8031</value>
  </property>
  <property>
    <name>yarn.resourcemanager.admin.address</name>
    <value>bd23:8033</value>
  </property>
  <property>
    <name>yarn.resourcemanager.webapp.address</name>
    <value>bd23:8088</value>
  </property>
</configuration>

3、將hadoop目錄拷貝到所有主機。遠程拷貝的方法見Linux常用命令

4、格式化

[wukong@bd23 hadoop-2.4.1]$ ./bin/hdfs namenode -format

      看到如下輸出就證明成功了

14/07/31 13:58:30 INFO common.Storage: Storage directory /home/wukong/a_usr/hadoop-2.4.1/name has been successfully formatted.

5、啟動dfs

[wukong@bd23 hadoop-2.4.1]$ ./sbin/start-dfs.sh

      看到如下輸出就證明成功了

Starting namenodes on [bd23]
bd23: starting namenode, logging to /home/wukong/a_usr/hadoop-2.4.1/logs/hadoop-wukong-namenode-bd23.out
bd24: starting datanode, logging to /home/wukong/a_usr/hadoop-2.4.1/logs/hadoop-wukong-datanode-bd24.out
bd25: starting datanode, logging to /home/wukong/a_usr/hadoop-2.4.1/logs/hadoop-wukong-datanode-bd25.out
Starting secondary namenodes [bd23]
bd23: starting secondarynamenode, logging to /home/wukong/a_usr/hadoop-2.4.1/logs/hadoop-wukong-secondarynamenode-bd23.out

6、使用jps查看機器啟動的進程情況。正常情況下master上應該有namenode和sencondarynamenode。slave上有datanode。

7、啟動yarn。使用腳本

[wukong@bd23 hadoop-2.4.1]$ ./sbin/start-yarn.sh

8、使用jps查看進程情況。master上應該有namenode, sencondarynamenode, ResourceManager,slave上應該有datanode, nodeManager。

補充說明:

1、hadoop2中使用start-all.sh的時候,會提示腳本已過期,請使用start-dfs.sh。但是還是會啟動起來hdfs和yarn。

2、一張值得注意的圖

Hadoop2.4.1分布式安裝的示例分析

看完了這篇文章,相信你對“Hadoop2.4.1分布式安裝的示例分析”有了一定的了解,如果想了解更多相關知識,歡迎關注億速云行業資訊頻道,感謝各位的閱讀!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

黄陵县| 阜康市| 邯郸市| 泗水县| 通道| 阿瓦提县| 清水县| 英山县| 福清市| 霞浦县| 清河县| 搜索| 读书| 类乌齐县| 团风县| 九江县| 大城县| 雅江县| 安义县| 攀枝花市| 德安县| 柳州市| 莫力| 连城县| 慈利县| 师宗县| 石嘴山市| 大丰市| 湘潭县| 陇南市| 洛扎县| 涿鹿县| 大兴区| 万荣县| 屯门区| 新疆| 鹿泉市| 玉田县| 咸阳市| 孝感市| 松溪县|