91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Hadoop和Hbase偽集群如何安裝

發布時間:2021-11-26 11:01:14 來源:億速云 閱讀:155 作者:小新 欄目:大數據

小編給大家分享一下Hadoop和Hbase偽集群如何安裝,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!

Hbase和Hadoop和jdk版本一定要對應,不然很容易出錯

Hbase和jdk版本對應關系

Java VersionHBase 1.3+HBase 2.1+HBase 2.3+
JDK7支持不支持不支持
JDK8支持支持支持
JDK11不支持不支持沒有測試

Hbase和Hadoop版本對應關系


HBase-1.3.xHBase-1.4.xHBase-1.5.xHBase-2.1.xHBase-2.2.xHBase-2.3.x
Hadoop-2.4.x支持不支持不支持不支持不支持不支持
Hadoop-2.5.x支持不支持不支持不支持不支持不支持
Hadoop-2.6.0不支持不支持不支持不支持不支持不支持
Hadoop-2.6.1+支持不支持不支持不支持不支持不支持
Hadoop-2.7.0不支持不支持不支持不支持不支持不支持
Hadoop-2.7.1+支持支持不支持支持不支持不支持
Hadoop-2.8.[0-2]不支持不支持不支持不支持不支持不支持
Hadoop-2.8.[3-4]沒有測試沒有測試不支持支持不支持不支持
Hadoop-2.8.5+沒有測試沒有測試支持支持支持不支持
Hadoop-2.9.[0-1]不支持不支持不支持不支持不支持不支持
Hadoop-2.9.2+沒有測試沒有測試支持沒有測試支持不支持
Hadoop-2.10.0沒有測試沒有測試支持沒有測試沒有測試支持
Hadoop-3.0.[0-2]不支持不支持不支持不支持不支持不支持
Hadoop-3.0.3+不支持不支持不支持支持不支持不支持
Hadoop-3.1.0不支持不支持不支持不支持不支持不支持
Hadoop-3.1.1+不支持不支持不支持支持支持支持
Hadoop-3.2.x不支持不支持不支持不支持支持支持

Hase下載地址: https://hbase.apache.org/downloads.html Hadoop下載地址: https://hadoop.apache.org/releases.html jdk版本1.8

hadoop-3.2.1.tar.gz
hbase-2.3.1-bin.tar.gz

1.安裝hadoop

> tar -xzvf hadoop-3.2.1.tar.gz
//修改配置文件
> cd hadoop-3.2.1/etc/hadoop

//創建 /usr/local/hadoop 目錄

> mkdir /usr/local/hadoop
> vim hadoop-env.sh
//添加JAVA_HOME
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.252.b09-2.el7_8.x86_64
> vim hdsf-site.xml
<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.name.dir</name>
        <value>file:/usr/local/hadoop/tmp/dfs/name</value>
    </property>
    <property>
        <name>dfs.datanode.data.dir</name>
        <value>file:/usr/local/hadoop/tmp/dfs/data</value>
    </property>
</configuration>
> vim core-site.xml

<configuration>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/usr/local/hadoop/tmp</value>
        <description>Abase for other temporary directories.</description>
    </property>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>
  1. 執行 NameNode 的格式化

> /root/hadoop/hadoop-3.2.1/bin/hdfs namenode -format
  1. 啟動hdfs

> /root/hadoop/hadoop-3.2.1/sbin/start-dfs.sh

錯誤一:

WARNING: HADOOP_SECURE_DN_USER has been replaced by HDFS_DATANODE_SECURE_USER. Using value of HADOOP_SECURE_DN_USER.
hadoop1: ssh: Could not resolve hostname 

> hostname
hadoop1
vim /etc/hosts
127.0.0.1 hadoop1 //添加


錯誤二:
localhost: Permission denied (publickey,gssapi-keyex,gssapi-with-mic,password).

> ssh localhost
//初次登陸需要輸入yes
//輸入密碼

1.設置無密碼登陸
//退出剛才的登陸,注意此時還在服務器上,并沒有退回到本地
> exit
> cd ~/.ssh
> ssh-keygen -t rsa
> cat ./id_rsa.pub >> ./authorized_keys
> chmod 700 ~/.ssh
> chmod 644 ~/.ssh/authorized_keys

// .ssh需要是700權限
// authorized_keys需要是644權限


錯誤三:
ERROR: Attempting to operate on hdfs namenode as root
> vim /root/hadoop/hadoop-3.2.1/etc/hadoop/hadoop-env.sh
//頭部添加
export HDFS_DATANODE_USER=root
export HADOOP_SECURE_DN_USER=hdfs
export HDFS_NAMENODE_USER=root
export HDFS_SECONDARYNAMENODE_USER=root
export YARN_RESOURCEMANAGER_USER=root


然后重新啟動
  1. 進入Hadoop創建一個文件

> /root/hadoop/hadoop-3.2.1/bin/hdfs dfs -mkdir /test
//查看
>  /root/hadoop/hadoop-3.2.1/bin/hdfs dfs -ls  /
  1. 安裝Hbase

> tar -xzvf hbase-2.3.1-bin.tar.gz
> cd hbase-2.3.1/conf
//拷貝Hadoop中hdfs-site.xml和core-site.xml到當前目錄
> cp ../../hadoop-3.2.1/etc/hadoop/hdfs-site.xml  .
> cp ../../hadoop-3.2.1/etc/hadoop/core-site.xml  .
> vim hbase-env.sh
//添加jdk環境變量
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.252.b09-2.el7_8.x86_64

> vim hbase-size.xml

<configuration>
        <property>
                <name>hbase.rootdir</name>
                <value>hdfs://127.0.0.1:9000/hbase</value>
        </property>
        <property>
                <name>hbase.zookeeper.property.dataDir</name>
                <value>/usr/local/hadoop/zookeeper</value>
        </property>
        <property>
                <name>hbase.cluster.distributed</name>
                <value>true</value>
        </property>
</configuration>

> mkdir /usr/local/hadoop/zookeeper
  1. 訪問Hbase

>/root/hadoop/hbase-2.3.1/bin/hbase shell
  1. 網頁訪問地址

Hbase: http://xxx:16010/master-status

//開啟Hadoop網頁訪問
> /root/hadoop/hadoop-3.2.1/sbin/start-yarn.sh

Hadoop: http://xxx:8088/cluster
  1. Hadoop端口大全

節點默認端口配置用途說明
HDFSDataNode50010dfs.datanode.addressdatanode服務端口,用于數據傳輸
HDFSDataNode50075dfs.datanode.http.addresshttp服務的端口
HDFSDataNode50475dfs.datanode.https.addresshttps服務的端口
HDFSDataNode50020dfs.datanode.ipc.addressipc服務的端口
HDFSNameNode50070dfs.namenode.http-addresshttp服務的端口
HDFSNameNode50470dfs.namenode.https-addresshttps服務的端口
HDFSNameNode8020fs.defaultFS接收Client連接的RPC端口,用于獲取文件系統metadata信息。
HDFSjournalnode8485dfs.journalnode.rpc-addressRPC服務
HDFSjournalnode8480dfs.journalnode.http-addressHTTP服務
HDFSZKFC8019dfs.ha.zkfc.portZooKeeper FailoverController,用于NN HA
YARNResourceManager8032yarn.resourcemanager.addressRM的applications manager(ASM)端口
YARNResourceManager8030yarn.resourcemanager.scheduler.addressscheduler組件的IPC端口
YARNResourceManager8031yarn.resourcemanager.resource-tracker.addressIPC
YARNResourceManager8033yarn.resourcemanager.admin.addressIPC
YARNResourceManager8088yarn.resourcemanager.webapp.addresshttp服務端口
YARNNodeManager8040yarn.nodemanager.localizer.addresslocalizer IPC
YARNNodeManager8042yarn.nodemanager.webapp.addresshttp服務端口
YARNNodeManager8041yarn.nodemanager.addressNM中container manager的端口
YARNJobHistory Server10020mapreduce.jobhistory.addressIPC
YARNJobHistory Server19888mapreduce.jobhistory.webapp.addresshttp服務端口
HBaseMaster60000hbase.master.portIPC
HBaseMaster60010hbase.master.info.porthttp服務端口
HBaseRegionServer60020hbase.regionserver.portIPC
HBaseRegionServer60030hbase.regionserver.info.porthttp服務端口
HBaseHQuorumPeer2181hbase.zookeeper.property.clientPortHBase-managed ZK mode,使用獨立的ZooKeeper集群則不會啟用該端口。
HBaseHQuorumPeer2888hbase.zookeeper.peerportHBase-managed ZK mode,使用獨立的ZooKeeper集群則不會啟用該端口。
HBaseHQuorumPeer3888hbase.zookeeper.leaderportHBase-managed ZK mode,使用獨立的ZooKeeper集群則不會啟用該端口。
HiveMetastore9083/etc/default/hive-metastore中export PORT=<port>來更新默認端口
HiveHiveServer10000/etc/hive/conf/hive-env.sh中export HIVE_SERVER2_THRIFT_PORT=<port>來更新默認端口
ZooKeeperServer2181/etc/zookeeper/conf/zoo.cfg中clientPort=<port>對客戶端提供服務的端口
ZooKeeperServer2888/etc/zookeeper/conf/zoo.cfg中server.x=[hostname]:nnnnn[:nnnnn],標藍部分follower用來連接到leader,只在leader上監聽該端口。
ZooKeeperServer3888/etc/zookeeper/conf/zoo.cfg中server.x=[hostname]:nnnnn[:nnnnn],標藍部分用于leader選舉的。只在electionAlg是1,2或3(默認)時需要。
//修改默認端口
> vim /root/hadoop/hadoop-3.2.1/etc/hadoop/yarn-site.xml
// name 可以參照上面的表
<configuration>
  <property>
    <name>yarn.resourcemanager.webapp.address</name>
    <value>xxx:8088</value>
  </property>
</configuration>

//然后啟動或者重啟yarn(資源管理系統)

> /root/hadoop/hadoop-3.2.1/sbin/start-yarn.sh

以上是“Hadoop和Hbase偽集群如何安裝”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注億速云行業資訊頻道!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

黄石市| 肃北| 凤阳县| 平利县| 中超| 西盟| 东阿县| 梧州市| 阿拉善右旗| 咸宁市| 玉环县| 新乡市| 沛县| 凌云县| 扎赉特旗| 丰都县| 浮山县| 宜城市| 高陵县| 石景山区| 望城县| 大厂| 浦东新区| 常宁市| 那坡县| 涞源县| 平遥县| 巴彦淖尔市| 林周县| 大名县| 宜兰市| 兴和县| 卢龙县| 鹤庆县| 曲阜市| 当涂县| 上蔡县| 蚌埠市| 滦平县| 太谷县| 隆昌县|