您好,登錄后才能下訂單哦!
小編給大家分享一下Hadoop和Hbase偽集群如何安裝,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
Hbase和Hadoop和jdk版本一定要對應,不然很容易出錯
Hbase和jdk版本對應關系
Java Version | HBase 1.3+ | HBase 2.1+ | HBase 2.3+ |
---|---|---|---|
JDK7 | 支持 | 不支持 | 不支持 |
JDK8 | 支持 | 支持 | 支持 |
JDK11 | 不支持 | 不支持 | 沒有測試 |
Hbase和Hadoop版本對應關系
HBase-1.3.x | HBase-1.4.x | HBase-1.5.x | HBase-2.1.x | HBase-2.2.x | HBase-2.3.x | |
---|---|---|---|---|---|---|
Hadoop-2.4.x | 支持 | 不支持 | 不支持 | 不支持 | 不支持 | 不支持 |
Hadoop-2.5.x | 支持 | 不支持 | 不支持 | 不支持 | 不支持 | 不支持 |
Hadoop-2.6.0 | 不支持 | 不支持 | 不支持 | 不支持 | 不支持 | 不支持 |
Hadoop-2.6.1+ | 支持 | 不支持 | 不支持 | 不支持 | 不支持 | 不支持 |
Hadoop-2.7.0 | 不支持 | 不支持 | 不支持 | 不支持 | 不支持 | 不支持 |
Hadoop-2.7.1+ | 支持 | 支持 | 不支持 | 支持 | 不支持 | 不支持 |
Hadoop-2.8.[0-2] | 不支持 | 不支持 | 不支持 | 不支持 | 不支持 | 不支持 |
Hadoop-2.8.[3-4] | 沒有測試 | 沒有測試 | 不支持 | 支持 | 不支持 | 不支持 |
Hadoop-2.8.5+ | 沒有測試 | 沒有測試 | 支持 | 支持 | 支持 | 不支持 |
Hadoop-2.9.[0-1] | 不支持 | 不支持 | 不支持 | 不支持 | 不支持 | 不支持 |
Hadoop-2.9.2+ | 沒有測試 | 沒有測試 | 支持 | 沒有測試 | 支持 | 不支持 |
Hadoop-2.10.0 | 沒有測試 | 沒有測試 | 支持 | 沒有測試 | 沒有測試 | 支持 |
Hadoop-3.0.[0-2] | 不支持 | 不支持 | 不支持 | 不支持 | 不支持 | 不支持 |
Hadoop-3.0.3+ | 不支持 | 不支持 | 不支持 | 支持 | 不支持 | 不支持 |
Hadoop-3.1.0 | 不支持 | 不支持 | 不支持 | 不支持 | 不支持 | 不支持 |
Hadoop-3.1.1+ | 不支持 | 不支持 | 不支持 | 支持 | 支持 | 支持 |
Hadoop-3.2.x | 不支持 | 不支持 | 不支持 | 不支持 | 支持 | 支持 |
Hase下載地址: https://hbase.apache.org/downloads.html Hadoop下載地址: https://hadoop.apache.org/releases.html jdk版本1.8
hadoop-3.2.1.tar.gz
hbase-2.3.1-bin.tar.gz
1.安裝hadoop
> tar -xzvf hadoop-3.2.1.tar.gz //修改配置文件 > cd hadoop-3.2.1/etc/hadoop //創建 /usr/local/hadoop 目錄 > mkdir /usr/local/hadoop
> vim hadoop-env.sh //添加JAVA_HOME export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.252.b09-2.el7_8.x86_64
> vim hdsf-site.xml <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/usr/local/hadoop/tmp/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/usr/local/hadoop/tmp/dfs/data</value> </property> </configuration>
> vim core-site.xml <configuration> <property> <name>hadoop.tmp.dir</name> <value>file:/usr/local/hadoop/tmp</value> <description>Abase for other temporary directories.</description> </property> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration>
執行 NameNode 的格式化
> /root/hadoop/hadoop-3.2.1/bin/hdfs namenode -format
啟動hdfs
> /root/hadoop/hadoop-3.2.1/sbin/start-dfs.sh 錯誤一: WARNING: HADOOP_SECURE_DN_USER has been replaced by HDFS_DATANODE_SECURE_USER. Using value of HADOOP_SECURE_DN_USER. hadoop1: ssh: Could not resolve hostname > hostname hadoop1 vim /etc/hosts 127.0.0.1 hadoop1 //添加 錯誤二: localhost: Permission denied (publickey,gssapi-keyex,gssapi-with-mic,password). > ssh localhost //初次登陸需要輸入yes //輸入密碼 1.設置無密碼登陸 //退出剛才的登陸,注意此時還在服務器上,并沒有退回到本地 > exit > cd ~/.ssh > ssh-keygen -t rsa > cat ./id_rsa.pub >> ./authorized_keys > chmod 700 ~/.ssh > chmod 644 ~/.ssh/authorized_keys // .ssh需要是700權限 // authorized_keys需要是644權限 錯誤三: ERROR: Attempting to operate on hdfs namenode as root > vim /root/hadoop/hadoop-3.2.1/etc/hadoop/hadoop-env.sh //頭部添加 export HDFS_DATANODE_USER=root export HADOOP_SECURE_DN_USER=hdfs export HDFS_NAMENODE_USER=root export HDFS_SECONDARYNAMENODE_USER=root export YARN_RESOURCEMANAGER_USER=root 然后重新啟動
進入Hadoop創建一個文件
> /root/hadoop/hadoop-3.2.1/bin/hdfs dfs -mkdir /test //查看 > /root/hadoop/hadoop-3.2.1/bin/hdfs dfs -ls /
安裝Hbase
> tar -xzvf hbase-2.3.1-bin.tar.gz > cd hbase-2.3.1/conf //拷貝Hadoop中hdfs-site.xml和core-site.xml到當前目錄 > cp ../../hadoop-3.2.1/etc/hadoop/hdfs-site.xml . > cp ../../hadoop-3.2.1/etc/hadoop/core-site.xml . > vim hbase-env.sh //添加jdk環境變量 export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.252.b09-2.el7_8.x86_64 > vim hbase-size.xml <configuration> <property> <name>hbase.rootdir</name> <value>hdfs://127.0.0.1:9000/hbase</value> </property> <property> <name>hbase.zookeeper.property.dataDir</name> <value>/usr/local/hadoop/zookeeper</value> </property> <property> <name>hbase.cluster.distributed</name> <value>true</value> </property> </configuration> > mkdir /usr/local/hadoop/zookeeper
訪問Hbase
>/root/hadoop/hbase-2.3.1/bin/hbase shell
網頁訪問地址
Hbase: http://xxx:16010/master-status //開啟Hadoop網頁訪問 > /root/hadoop/hadoop-3.2.1/sbin/start-yarn.sh Hadoop: http://xxx:8088/cluster
Hadoop端口大全
件 | 節點 | 默認端口 | 配置 | 用途說明 |
---|---|---|---|---|
HDFS | DataNode | 50010 | dfs.datanode.address | datanode服務端口,用于數據傳輸 |
HDFS | DataNode | 50075 | dfs.datanode.http.address | http服務的端口 |
HDFS | DataNode | 50475 | dfs.datanode.https.address | https服務的端口 |
HDFS | DataNode | 50020 | dfs.datanode.ipc.address | ipc服務的端口 |
HDFS | NameNode | 50070 | dfs.namenode.http-address | http服務的端口 |
HDFS | NameNode | 50470 | dfs.namenode.https-address | https服務的端口 |
HDFS | NameNode | 8020 | fs.defaultFS | 接收Client連接的RPC端口,用于獲取文件系統metadata信息。 |
HDFS | journalnode | 8485 | dfs.journalnode.rpc-address | RPC服務 |
HDFS | journalnode | 8480 | dfs.journalnode.http-address | HTTP服務 |
HDFS | ZKFC | 8019 | dfs.ha.zkfc.port | ZooKeeper FailoverController,用于NN HA |
YARN | ResourceManager | 8032 | yarn.resourcemanager.address | RM的applications manager(ASM)端口 |
YARN | ResourceManager | 8030 | yarn.resourcemanager.scheduler.address | scheduler組件的IPC端口 |
YARN | ResourceManager | 8031 | yarn.resourcemanager.resource-tracker.address | IPC |
YARN | ResourceManager | 8033 | yarn.resourcemanager.admin.address | IPC |
YARN | ResourceManager | 8088 | yarn.resourcemanager.webapp.address | http服務端口 |
YARN | NodeManager | 8040 | yarn.nodemanager.localizer.address | localizer IPC |
YARN | NodeManager | 8042 | yarn.nodemanager.webapp.address | http服務端口 |
YARN | NodeManager | 8041 | yarn.nodemanager.address | NM中container manager的端口 |
YARN | JobHistory Server | 10020 | mapreduce.jobhistory.address | IPC |
YARN | JobHistory Server | 19888 | mapreduce.jobhistory.webapp.address | http服務端口 |
HBase | Master | 60000 | hbase.master.port | IPC |
HBase | Master | 60010 | hbase.master.info.port | http服務端口 |
HBase | RegionServer | 60020 | hbase.regionserver.port | IPC |
HBase | RegionServer | 60030 | hbase.regionserver.info.port | http服務端口 |
HBase | HQuorumPeer | 2181 | hbase.zookeeper.property.clientPort | HBase-managed ZK mode,使用獨立的ZooKeeper集群則不會啟用該端口。 |
HBase | HQuorumPeer | 2888 | hbase.zookeeper.peerport | HBase-managed ZK mode,使用獨立的ZooKeeper集群則不會啟用該端口。 |
HBase | HQuorumPeer | 3888 | hbase.zookeeper.leaderport | HBase-managed ZK mode,使用獨立的ZooKeeper集群則不會啟用該端口。 |
Hive | Metastore | 9083 | /etc/default/hive-metastore中export PORT=<port>來更新默認端口 | |
Hive | HiveServer | 10000 | /etc/hive/conf/hive-env.sh中export HIVE_SERVER2_THRIFT_PORT=<port>來更新默認端口 | |
ZooKeeper | Server | 2181 | /etc/zookeeper/conf/zoo.cfg中clientPort=<port> | 對客戶端提供服務的端口 |
ZooKeeper | Server | 2888 | /etc/zookeeper/conf/zoo.cfg中server.x=[hostname]:nnnnn[:nnnnn],標藍部分 | follower用來連接到leader,只在leader上監聽該端口。 |
ZooKeeper | Server | 3888 | /etc/zookeeper/conf/zoo.cfg中server.x=[hostname]:nnnnn[:nnnnn],標藍部分 | 用于leader選舉的。只在electionAlg是1,2或3(默認)時需要。 |
//修改默認端口 > vim /root/hadoop/hadoop-3.2.1/etc/hadoop/yarn-site.xml // name 可以參照上面的表 <configuration> <property> <name>yarn.resourcemanager.webapp.address</name> <value>xxx:8088</value> </property> </configuration> //然后啟動或者重啟yarn(資源管理系統) > /root/hadoop/hadoop-3.2.1/sbin/start-yarn.sh
以上是“Hadoop和Hbase偽集群如何安裝”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。