您好,登錄后才能下訂單哦!
這篇文章主要介紹“Hadoop的安裝與環境搭建教程”,在日常操作中,相信很多人在Hadoop的安裝與環境搭建教程問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”Hadoop的安裝與環境搭建教程”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!
一、Hadoop的安裝
1. 下載地址:https://archive.apache.org/dist/hadoop/common/我下載的是hadoop-2.7.3.tar.gz版本。
2. 在/usr/local/ 創建文件夾zookeeper
mkdir hadoop
3.上傳文件到Linux上的/usr/local/source目錄下
3.解壓縮
運行如下命令:
tar -zxvf hadoop-2.7.3.tar.gz-C /usr/local/hadoop
4. 修改配置文件
進入到cd /usr/local/hadoop/hadoop-2.7.3/etc/hadoop/
, 修改hadoop-env.sh
運行 vimhadoop-env.sh
,修改JAVA_HOME
5.將Hadoop的執行命令加入到我們的環境變量里
在/etc/profile文件中加入:
export PATH=$PATH:/usr/local/hadoop/hadoop-2.7.3/bin:/usr/local/hadoop/hadoop-2.7.3/sbin
執行/etc/profile文件:
source /etc/profile
6. 將npfdev1機器上的hadoop復制到npfdev2和npfdev3和npfdev4機器上。使用下面的命令:
首先分別在npfdev2和npfdev3和npfdev4機器上,建立/usr/local/hadoop目錄,然后在npfdev1上分別執行下面命令:
scp -r /usr/local/hadoop/hadoop-2.7.3/ npfdev2:/usr/local/hadoop/
scp -r /usr/local/hadoop/hadoop-2.7.3/ npfdev3:/usr/local/hadoop/
scp -r /usr/local/hadoop/hadoop-2.7.3/ npfdev4:/usr/local/hadoop/
記住:需要各自修改npfdev2和npfdev3和npfdev4的/etc/profile文件:
在/etc/profile文件中加入:
export PATH=$PATH:/usr/local/hadoop/hadoop-2.7.3/bin:/usr/local/hadoop/hadoop-2.7.3/sbin
執行/etc/profile文件:
source /etc/profile
然后分別在npfdev1和npfdev2和npfdev3和npfdev4機器上,執行hadoop命令,看是否安裝成功。并且關閉防火墻。
7. 確定所有機器之間可以相互ping通,使用下面的命令:
(1). ping npfdev1
(2). ping npfdev2
(3). ping npfdev3
(4). ping npfdev4
8. 啟動hadoop:
我們這里將npfdev1作為master,npfdev2和npfdev3和npfdev4分別作為三臺slave。
(1).修改配置文件core-site.xml
進入 cd /usr/local/hadoop/hadoop-2.7.3/etc/hadoop
具體配置如下:
(2).在master機器npfdev1上啟動namenode
首先需要格式化namenode,第一次使用需要格式化,后來就不需要了。
hdfs namenode -format
然后啟動namenode:
hadoop-daemon.sh start namenode
通過jps命令查看,如果有namenode的java進程,就說明我們啟動namenode成功。
(3).在slave機器npfdev2,npfdev3,npfdev4上啟動datanode
到此,關于“Hadoop的安裝與環境搭建教程”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續學習更多相關知識,請繼續關注億速云網站,小編會繼續努力為大家帶來更多實用的文章!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。