91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Hadoop完全分布式配置

發布時間:2020-06-29 04:33:01 來源:網絡 閱讀:685 作者:二進制鹵蛋 欄目:建站服務器
 
一、首先說一下,Hadoop有三種運行模式。
第一個是獨立(或本地)運行模式:無需運行任何守護進程,所有程序都在一個同一個JVM上執行。
第二個是偽分布模式:Hadoop守護進程運行在本地機器上,模擬一個小規模的集群。
第三個是全分布模式,也就是通常所說的完全分布式模式:Hadoop守護進程運行在一個集群上。
 
 
下面簡單介紹下完全分布式的配置:
 
首先準備三臺機器,系統公共配置部分:
 
系統信息:
[root@hadoop1 ~]# cat /etc/redhat-release
CentOS release 6.7 (Final)
[centos@hadoop1 ~]$ uname -r
2.6.32-573.el6.x86_64
[root@hadoop1 ~]# uname -m
x86_64
 
公共操作用戶:centos
centos用戶在/etc/sudoers中的公共配置:
[root@hadoop1 ~]# grep centos /etc/sudoers
centos ALL=(ALL) NOPASSWD: ALL
 
環境變量如下:
[root@hadoop1 ~]# tail -16 /etc/profile
#java
JAVA_HOME=/home/centos/download/jdk
PATH=$JAVA_HOME/bin:$PATH
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export JAVA_HOME
export CLASSPATH
#hadoop
HADOOP_HOME=/home/centos/download/hadoop
PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export PATH
 
主機IP域名映射如下:
[root@hadoop1 ~]# cat /etc/hosts
10.0.0.101 hadoop1
10.0.0.102 hadoop2
10.0.0.103 hadoop3
 
 
主節點IP為:
[root@hadoop1 ~]# ifconfig | awk -F '[ :]+' 'NR==2{print $4}'
10.0.0.101
從節點IP分別為:
[root@hadoop2 ~]# ifconfig | awk -F '[ :]+' 'NR==2{print $4}'
10.0.0.102
[root@hadoop3 ~]# ifconfig | awk -F '[ :]+' 'NR==2{print $4}'
10.0.0.103
 
Java版本
[root@hadoop1 ~]# java  -version
java version "1.8.0_65"
Java(TM) SE Runtime Environment (build1.8.0_65-b17)
Java HotSpot(TM) 64-Bit Server VM (build25.65-b01, mixed mode)
 
Hadoop版本
[root@hadoop1 ~]# hadoop version
Hadoop 2.7.3
Subversionhttps://git-wip-us.apache.org/repos/asf/hadoop.git -r baa91f7c6bc9cb92be5982de4719c1c8af91ccff
Compiled by root on 2016-08-18T01:41Z
Compiled with protoc 2.5.0
From source with checksum2e4ce5f957ea4db193bce3734ff29ff4
This command was run using/home/centos/download/hadoop-2.7.3/share/hadoop/common/hadoop-common-2.7.3.jar
 
 
 
二、配置ssh
首先在三臺機器上的家目錄分別執行下述生成密鑰對腳本,這樣的話,三臺機器的centos之間就可以免密碼登錄、免密碼傳輸文件等操作。
[centos@hadoop1 ~]$ ll createssh.sh
-rwxr-xr-x 1 centos centos 51 May 14 11:05createssh.sh
[centos@hadoop1 ~]$ cat createssh.sh
#!/bin/sh
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
 
然后在三臺機器上的家目錄分別執行下述分發公鑰
[centos@hadoop1 ~]$ ll fen.sh
-rwxr-xr-x 1 centos centos 142 May 14 12:14fen.sh
[centos@hadoop1 ~]$ cat fen.sh
#!/bin/sh
ssh-copy-id -i ~/.ssh/id_rsa.pub centos@hadoop1
ssh-copy-id -i ~/.ssh/id_rsa.pub centos@hadoop2
ssh-copy-id -i ~/.ssh/id_rsa.pub centos@hadoop3
 
#上述只是在執行的時候會輸入yes和系統用戶密碼,其他在執行的時候就不會再次輸入密碼了。執行SSH的目的是,比如在配置好完全分布式的時候,主節點會自動吊起從節點的日志并且往里面寫入數據,此時SSH的密鑰對就起作用了。
 
#經常碰到的坑,要配置三臺機器家目錄中.ssh的權限為700,而且要配置家目錄中.ssh目錄中的authorized_keys權限為644.
[centos@hadoop1 ~]$ chmod 700 .ssh
[centos@hadoop1 ~]$ chmod 644  .ssh/authorized_keys
 
 
三、重點的配置文件內容
 
#三臺機器共同配置
[centos@hadoop1 ~]$ grep JAVA_HOME download/hadoop/etc/hadoop/hadoop-env.sh
# The only required environment variable isJAVA_HOME.  All others are
# set JAVA_HOME in this file, so that it iscorrectly defined on
export JAVA_HOME=/home/centos/download/jdk   #JAVA環境變量要在這再配置一下
 
[centos@hadoop1 ~]$ cat download/hadoop/etc/hadoop/core-site.xml
<?xml version="1.0"?>
<configuration>
       <property>
               <name>fs.defaultFS</name>
               <value>hdfs://hadoop1</value>
       </property>
</configuration>
 
[centos@hadoop1 ~]$ cat download/hadoop/etc/hadoop/hdfs-site.xml
<?xml version="1.0"?>
<configuration>
       <property>
               <name>dfs.replication</name>
                <value>2</value>#副本數,對應從節點數
       </property>
</configuration>
 
[centos@hadoop1 ~]$ cat download/hadoop/etc/hadoop/mapred-site.xml
<?xml version="1.0"?>
<configuration>
       <property>
               <name>mapreduce.framework.name</name>
                <value>yarn</value>
       </property>
</configuration>
 
 
[centos@hadoop1 ~]$ cat download/hadoop/etc/hadoop/yarn-site.xml
<?xml version="1.0"?>
<configuration>
       <property>
               <name>yarn.resourcemanager.hostname</name>
               <value>hadoop1</value>
       </property>
       <property>
               <name>yarn.nodemanager.aux-services</name>
               <value>mapreduce_shuffle</value>
       </property>
</configuration>
 
#注意這里只配置從節點的域名
[centos@hadoop1 ~]$ cat download/hadoop/etc/hadoop/slaves
hadoop2
hadoop3
 
 
四、啟動hadoop
 
#下述命令只在主節點hadoop1中執行!
#首先執行格式化命令
[centos@hadoop1 ~]$ hadoop namenode -format
 
#然后啟動hadoop
[centos@hadoop1 ~]$ start-all.sh
 
#查看啟動進程
#主節點執行,名稱節點只會存在于主節點中,包括文件名稱等內容。
[centos@hadoop1 ~]$ jps
2736 SecondaryNameNode
2961 Jps
2889 ResourceManager
2539 NameNode 
 
#從節點執行,數據節點只會存在于從節點,是真正存放數據的地方。
[centos@hadoop2 ~]$ jps
2322 NodeManager
2234 DataNode
2380 Jps
 
[centos@hadoop3 ~]$ jps
2481 DataNode
2646 Jps
2569 NodeManager
 
 
#臨時文件都生成在了根目錄下的/tmp目錄下
[centos@hadoop1 ~]$ ll /tmp/
total 32
drwxrwxr-x 3 centos centos 4096 May 1414:05 hadoop-centos
-rw-rw-r-- 1 centos centos    5 May 14 14:06 hadoop-centos-namenode.pid
-rw-rw-r-- 1 centos centos    5 May 14 14:06hadoop-centos-secondarynamenode.pid
drwxr-xr-x 2 centos centos 4096 May 1414:06 hsperfdata_centos
drwxrwxr-x 3 centos centos 4096 May 1414:06 Jetty_0_0_0_0_50070_hdfs____w2cu08
drwxrwxr-x 3 centos centos 4096 May 1414:06 Jetty_0_0_0_0_50090_secondary____y6aanv
drwxrwxr-x 4 centos centos 4096 May 1414:06 Jetty_hadoop1_8088_cluster____.jtly5k
-rw-rw-r-- 1 centos centos    5 May 14 14:06yarn-centos-resourcemanager.pid
向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

长乐市| 淳化县| 金乡县| 垦利县| 祁阳县| 双峰县| 曲阳县| 乌兰察布市| 恩施市| 上杭县| 谢通门县| 亳州市| 靖远县| 大埔县| 阿图什市| 忻城县| 奎屯市| 沙洋县| 囊谦县| 凉城县| 岳阳市| 织金县| 山西省| 铁岭市| 浦东新区| 米易县| 江北区| 策勒县| 祥云县| 天全县| 南丰县| 湖口县| 富蕴县| 蓬安县| 泰州市| 巴林右旗| 玉溪市| 连江县| 乌什县| 绥芬河市| 汉中市|