91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

怎么在vmware中搭建一個Hadoop集群環境

發布時間:2021-04-07 15:32:31 來源:億速云 閱讀:274 作者:Leah 欄目:開發技術

怎么在vmware中搭建一個Hadoop集群環境?很多新手對此不是很清楚,為了幫助大家解決這個難題,下面小編將為大家詳細講解,有這方面需求的人可以來學習下,希望你能有所收獲。

  1. 先在虛擬機中關閉系統

  2. 右鍵虛擬機,點擊管理,選擇克隆

怎么在vmware中搭建一個Hadoop集群環境

3.點擊下一步,選擇完整克隆,選擇路徑即可

怎么在vmware中搭建一個Hadoop集群環境
怎么在vmware中搭建一個Hadoop集群環境

怎么在vmware中搭建一個Hadoop集群環境


1.創建Hadoop用戶(在master,node1,node2執行)

順序執行以下命令即可

1.創建hadoop用戶

sudo useradd -m hadoop -s /bin/bash

設置用戶密碼(輸入兩次)

sudo passwd hadoop

添加權限

sudo adduser hadoop sudo

切換到hadoop用戶(這里要輸入剛剛設置的hadoop密碼)

su hadoop

運行截圖展示(以master虛擬機為例)

怎么在vmware中搭建一個Hadoop集群環境


2.更新apt下載源(在master,node1,node2執行)

sudo apt-get update

截圖展示(以master為例)

怎么在vmware中搭建一個Hadoop集群環境

3. 安裝SSH、配置SSH免密登錄 (在master,node1,node2執行)

1.安裝SSH

sudo apt-get install openssh-server

2.配置SSH免密登錄

ssh localhost
exit 
cd ~/.ssh/ 
ssh-keygen -t rsa #一直按回車
cat ./id_rsa.pub >> ./authorized_keys

3.驗證免密

ssh localhost
exit 
cd ~/.ssh/ 
ssh-keygen -t rsa #一直按回車
cat ./id_rsa.pub >> ./authorized_keys

截圖展示(以master為例)

怎么在vmware中搭建一個Hadoop集群環境


4.安裝Java環境 (在master,node1,node2執行)

1.下載 JDK 環境包

sudo apt-get install default-jre default-jdk

2.配置環境變量文件

vim ~/.bashrc

3.在文件首行加入

export JAVA_HOME=/usr/lib/jvm/default-java

4,。讓環境變量生效

source ~/.bashrc

5.驗證

java -version

截圖展示(以master為例)

怎么在vmware中搭建一個Hadoop集群環境

修改主機名(在master,node1,node2執行)

1.將文件中原有的主機名刪除,master中寫入master,node1中寫入node1,node2…(同理)

sudo vim /etc/hostname

重啟三個服務器

reboot

重啟成功后,再次連接會話,發現主機名改變了

截圖展示(以node1為例)

怎么在vmware中搭建一個Hadoop集群環境


修改IP映射(在master,node1,node2執行)

查看各個虛擬機的ip地址

ifconfig -a

如果有報錯,則下載 net-tools ,然后再運行即可看到

sudo apt install net-tools

如下圖,紅色方框內的就是 本臺虛擬機的 ip 地址
怎么在vmware中搭建一個Hadoop集群環境

3臺虛擬機中都需要在 hosts 文件中加入對方的ip地址

sudo vim /etc/hosts

以master為例截圖展示
怎么在vmware中搭建一個Hadoop集群環境


SSH免密登錄其他節點(在master上執行)

在Master上執行

cd ~/.ssh 
rm ./id_rsa*  # 刪除之前生成的公匙(如果有)
ssh-keygen -t rsa # 一直按回車就可以
cat ./id_rsa.pub >> ./authorized_keys
scp ~/.ssh/id_rsa.pub hadoop@node1:/home/hadoop/
scp ~/.ssh/id_rsa.pub hadoop@node2:/home/hadoop/

怎么在vmware中搭建一個Hadoop集群環境

在node1,node2都執行

cat ~/id_rsa.pub >> ~/.ssh/authorized_keys
rm ~/id_rsa.pub # 用完就刪掉

怎么在vmware中搭建一個Hadoop集群環境

驗證免密登錄

ssh node1
exit
ssh node2
exit

以master為例截圖展示

怎么在vmware中搭建一個Hadoop集群環境


安裝hadoop3.2.1(在master中執行)

有些鏡像的下載網址失效了,這里貼出官網的下載地址。

下載網址:hadoop3.2.1下載網址

下載好,之后通過VMware-Tools上傳到master的/home/hadoop中

怎么在vmware中搭建一個Hadoop集群環境
解壓

cd /home/hadoop
sudo tar -zxf hadoop-3.2.1.tar.gz -C /usr/local #解壓
cd /usr/local/
sudo mv ./hadoop-3.2.1/ ./hadoop  # 將文件夾名改為hadoop
sudo chown -R hadoop ./hadoop # 修改文件權限

驗證

cd /usr/local/hadoop
./bin/hadoop version

怎么在vmware中搭建一個Hadoop集群環境


配置hadoop環境(這一步需要很仔細)

配置環境變量

vim ~/.bashrc

在首行中寫入

export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin

使得配置生效

source ~/.bashrc

創建文件目錄(為后面的xml做準備)

cd /usr/local/hadoop
mkdir dfs
cd dfs
mkdir name data tmp
cd /usr/local/hadoop
mkdir tmp

配置hadoop的java環境變量

vim $HADOOP_HOME/etc/hadoop/hadoop-env.sh
vim $HADOOP_HOME/etc/hadoop/yarn-env.sh

兩個的首行都寫入

export JAVA_HOME=/usr/lib/jvm/default-java

(master中)配置nodes

cd /usr/local/hadoop/etc/hadoop

刪除掉原有的localhost,因為我們有2個node,就把這2個的名字寫入

vim workers
node1
node2

配置 core-site.xml

vim core-site.xml

因為我們只有一個namenode,所以用fs.default.name,不采用fs.defalutFs

其次確保/usr/local/hadoop/tmp這個目錄存在

<configuration>
 <property>
 <name>fs.default.name</name>
 <value>hdfs://Master:9000</value>
 </property>
 
 <property>
 <name>hadoop.tmp.dir</name>
 <value>/usr/local/hadoop/tmp</value>
 </property>
</configuration>

配置 hdfs-site.xml

vim hdfs-site.xml

dfs.namenode.secondary.http-address確保端口不要和core-site.xml中端口一致導致占用

確保/usr/local/hadoop/dfs/name :/usr/local/hadoop/dfs/data 存在

因為我們只有2個node,所以dfs.replication設置為2

<configuration>
 <property>
 <name>dfs.namenode.secondary.http-address</name>
 <value>Master:9001</value>
 </property>
 
 <property>
 <name>dfs.namenode.name.dir</name>
 <value>file:/usr/local/hadoop/dfs/name</value>
 </property>
 
 <property>
 <name>dfs.datanode.data.dir</name>
 <value>file:/usr/local/hadoop/dfs/data</value>
 </property>
 
 <property>
 <name>dfs.replication</name>
 <value>2</value>
 </property>
</configuration>

配置mapred-site.xml

vim mapred-site.xml
<configuration>
 <property> 
 <name>mapreduce.framework.name</name>
 <value>yarn</value>
 </property>
</configuration>

配置 yarn-site.xml

vim yarn-site.xml
<configuration>
 <property>
 <name>yarn.resourcemanager.hostname</name>
 <value>Master</value>
 </property>
 
 <property>
 <name>yarn.nodemanager.aux-services</name>
 <value>mapreduce_shuffle</value> 
 </property>
 
 <property>
 <name>yarn.nodemanager.vmem-check-enabled</name>
 <value>false</value>
 </property>
</configuration>

將hadoop壓縮

cd /usr/local
tar -zcf ~/hadoop.master.tar.gz ./hadoop #壓縮
cd ~

復制到node1中

scp ./hadoop.master.tar.gz node1:/home/hadoop

復制到node2中

scp ./hadoop.master.tar.gz node2:/home/hadoop

在node1、node2上執行
解壓

sudo rm -r /usr/local/hadoop # 刪掉舊的(如果存在)
sudo tar -zxf ~/hadoop.master.tar.gz -C /usr/local #解壓
sudo chown -R hadoop /usr/local/hadoop #修改權限

首次啟動需要先在 Master 節點執行 NameNode 的格式化,之后不需要

hdfs namenode -format

(注意:如果需要重新格式化 NameNode ,才需要先將原來 NameNode 和 DataNode 下的文件全部刪除!!!!!!!!!)

#看上面的文字,不要直接復制了
rm -rf $HADOOP_HOME/dfs/data/*
rm -rf $HADOOP_HOME/dfs/name/*

啟動 (在master上執行)

start-all.sh
mr-jobhistory-daemon.sh start historyserver

master中,出現Warning不影響

jps

運行截圖展示

怎么在vmware中搭建一個Hadoop集群環境


關閉hadoop集群(在master上執行)

stop-all.sh
mr-jobhistory-daemon.sh stop historyserver

運行截圖展示

怎么在vmware中搭建一個Hadoop集群環境


看完上述內容是否對您有幫助呢?如果還想對相關知識有進一步的了解或閱讀更多相關文章,請關注億速云行業資訊頻道,感謝您對億速云的支持。

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

黄梅县| 益阳市| 永丰县| 鄂托克前旗| 麻栗坡县| 镇巴县| 达日县| 乌拉特后旗| 彰化市| 察雅县| 武城县| 镇巴县| 泰兴市| 合川市| 定西市| 清水河县| 临邑县| 汶川县| 西吉县| 高平市| 长丰县| 济源市| 庆城县| 白河县| 阜康市| 盐池县| 宁明县| 孝昌县| 长宁区| 游戏| 衡东县| 武夷山市| 永吉县| 抚宁县| 三原县| 金门县| 博客| 亳州市| 宜兰县| 松江区| 乌苏市|