91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

hadoop install

發布時間:2020-06-17 03:43:25 來源:網絡 閱讀:155 作者:zjy1002261870 欄目:大數據

1.Hadoop安裝步驟
將Hadoop文件拷貝到/usr/local目錄下并解壓Tar -zxvf hadoop-3.0.0.tar.gz
將解壓后文件重命名hadoop mv hadoop-3.0.0.tar.gz hadoop
1.1、配置host ip映射關系 vim /etc/host
172.26.19.40 hmaster
172.26.19.41 hslave1
172.26.19.42 hslave2
172.26.19.43 hslave3
1.2、vim /etc/profile 配置Hadoop classpath
#set java environment /usr/local/java/jdk1.8.0_151
export JAVA_HOME=/usr/java/jdk1.8.0_151
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$PATH:$JAVA_HOME/bin
export PATH=$PATH:/usr/local/hadoop/bin:/usr/local/hadoop/sbin
export PATH=$PATH:/usr/local/hive/bin
2.配置Hadoop相關,在/usr/local/hadoop/etc/hadoop目錄下配置
vim hadoop-env.sh 運行環境依賴Java JDK
export JAVA_HOME=/usr/java/jdk1.8.0_151
配置Hadoop NameNode節點(Hadoop可以啟動啦)
2.1、vim core-site.xml 每個節點都需要配置才可
------配置通信節點url,所有節點都需要該配置
hadoop.tmp.dir 配置Hadoop文件存儲默認目錄(若未配置,默認保存臨時目錄/tmp下的)
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>

<property>
<name>hadoop.tmp.dir</name>
<value>/var/hadoop</value>
</property>
</configuration>

3.Hadoop默認4個基本配置文件
hadoop默認配置
Core-default.xml ------對應 core-site.xml
Hdfs-default.xml-------對應 hdfs-site.xml
mapred-default.xml
yarn-default.xml
3.1、Hdfs-site.xml 配置后覆蓋默認配置(Hdfs-site.xml僅在Namenode配置即可)
----配置hadoop復制的保存份數(只在namenode節點配置即可)
dfs.replication HDFS保存文件保存的份數(默認是3份)
dfs.namenode.heartbeat.recheck-interval DataNode健康檢查的間隔時間(毫秒)
dfs.permissions.enabled 測試時,可以關閉權限檢查(否則沒有權限訪問)
<configuration>
<property>
<name>dfs.replication</name>
<value>3</value>
</property>
<property>
<name>dfs.namenode.heartbeat.recheck-interval</name>
<value>20000</value>
</property>
<property>
<name>dfs.permissions.enabled</name>
<value>false</value>
</property>
</configuration>
3.2、mapred-site.xml僅在Namenode配置即可),
mapreduce.framework.name 將mapreduce與yarn資源調度平臺關聯(即mapreduce計算引擎使用yarn作為調度引擎)
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
3.3yarn-site.xml僅在Namenode配置即可
yarn.resourcemanager.hostname 配置Namenode的主機名
yarn.nodemanager.aux-services/yarn.nodemanager.aux-services.mapreduce_shuffle.class 配置計算MapReduce計算服務
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>hmaster</value>
</property>

<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.aux-services.mapreduce_shuffle.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>
</configuration>

4、基本配置完畢,先格式化namenode節點
Hdfs namenode -format
start-dfs.sh 啟動Hadoop集群所有節點
stop-dfs.sh 停止Hadoop集群所有節點
啟動namenode節點(master)
hdfs --daemon start namenode (3.0寫法)
hdfs --daemon stop namenode
hadoop-daemon.sh start namenode
hadoop-daemon.sh stop namenode
hadoop-daemon.sh start datanode
hadoop-daemon.sh stop datanode
jps查看相關進程是否起來
hdfs dfsadmin -report | more 查看Hadoop集群的狀態
http://172.26.19.40:50070/ Hadoop集群UI管理界面
http://172.26.19.40:9000/ 集群內部通信接口服務
5、僅在namenode節點/usr/local/hadoop/etc/hadoop下
在slaves文件里添加所有DataNode節點hostname(方便以后腳本批量配置所有slaves節點)
vim slaves
hslave1
hslave2
hslave3
6、免密設置
cd ~ 來到根目錄 ll -a 找到.ssh 文件
在.ssh目錄執行 ssh-keygen -t rsa 生成root用戶私鑰與公鑰如下圖
然后將公鑰id_rsa.pub 拷貝到所有slave節點.ssh目錄
(在master 上用root登錄slave時,用master的私鑰加密后傳輸到slave節點,在所有slave節點拷貝的公鑰能解密,證明是root用戶登錄上來了)
執行命令 Ssh-copy-id slave2 拷貝公鑰id_rsa.pub 到slave2的.ssh目錄(生成文件authorized_keys)
這時在master上可以免密登錄slave1了

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

西城区| 长汀县| 江口县| 永州市| 富宁县| 静宁县| 普兰县| 萍乡市| 宁蒗| 临邑县| 饶平县| 清流县| 河东区| 永清县| 鲁甸县| 通州市| 连云港市| 潮州市| 景东| 涞源县| 上栗县| 金阳县| 威宁| 东丽区| 凤山市| 绍兴市| 兴宁市| 双牌县| 浏阳市| 衡东县| 库车县| 库尔勒市| 比如县| 唐海县| 区。| 苗栗县| 普定县| 铜梁县| 大冶市| 西乌珠穆沁旗| 茌平县|