您好,登錄后才能下訂單哦!
這篇文章主要講解了“64位linux下的Hadoop分布式集群怎么配置”,文中的講解內容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“64位linux下的Hadoop分布式集群怎么配置”吧!
搭建Hadoop總的來說分為以下步驟:
檢查集群機子環境,準備合適的Hadoop部署文件,一般有以下內容:
檢查Java安裝(一般不用自帶的openJDK,具體原因暫不清楚);
自編譯Hadoop 64位部署文件(32bit Hadoop部署文件在x64機子上會有些小問題)
分布式環境下對機子進行整理,羅列其ip(更改/ect/hosts文件需要),劃分其Master、Slaver職責(也可以劃分更細的ResourceManager、SecondNameNode等,一般來說每個機子都充分利用,均充當DataNode)
“規劃”Hadoop文件夾結構,包括安裝目錄、數據文件(hadoop_data)、臨時文件(hadoop_tmp)等;一般來說,建議一個hadoop x.x.0目錄下,分別設立hadoop x.x.0目錄(解壓的Hadoop部署文件存放位置)、hadoop-data(數據文件)、hadoop_tmp(臨時文件);當然這是筆者自己的實踐,如果不是“行業標準”,請勿見笑;
配置運行環境,這里指的是除Hadoop部署文件中配置文件之外的與系統相關的配置:
修改/etc/hosts文件;
對各Master-Slaver設置ssh無密碼訪問;
配置Hadoop參數:
對{Hadoop_Home}/etc/hadoop/下的配置文件進行修改,包括hadoop-env.sh、yarn-env.sh、core-site.xml、hdfs-site.xml、yarn-site.xml、mapred-site.xml,以及slaves文件(hadoop 2.2.0中無masters,參考 masters 和 slaves 文件)。
初次安裝,參數盡量最小化配置,少配就行,之后集群優化的工作多得是;
配置支持lzo(這次正是太拘泥于細節,栽在了這個上面,其實分兩個步驟):
安裝lzo(因為集群需要原生lzo安裝目錄下的一些庫);
安裝hadoop-lzo(集群需要一些針對Hadoop的hadoop-lzo下的一些庫);
lzop(可選,如果需要測試效果,可用該工具生成一些.lzo文件)
啟動集群:
格式化NameNode:${Hadoop_Home}/bin/hdfs namenode –format
一鍵式啟動:${Hadoop_Home}/sbin/start-all.sh(該方法官方不建議使用,但還是能用:This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh)
檢查進程狀況: jps(來自JDK的工具)
細化步驟:
開啟守護進程
[hadoop@hadoop01 ~]$ hadoop-daemon.sh start namenode
[hadoop@hadoop01 ~]$ hadoop-daemon.sh start datanode
開啟yarn守護進程
[hadoop@hadoop01 ~]$ yarn-daemon.sh start resourcemanager
[hadoop@hadoop01 ~]$ yarn-daemon.sh start nodemanager
[hadoop@hadoop01 ~]$ start-yarn.sh
感謝各位的閱讀,以上就是“64位linux下的Hadoop分布式集群怎么配置”的內容了,經過本文的學習后,相信大家對64位linux下的Hadoop分布式集群怎么配置這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關知識點的文章,歡迎關注!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。