您好,登錄后才能下訂單哦!
這篇文章主要介紹Zookeeper 單機環境和集群環境的搭建方法,文中介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們一定要看完!
一、單機環境搭建#
1.1 下載#
下載對應版本 Zookeeper,這里我下載的版本 3.4.14。官方下載地址:https://archive.apache.org/dist/zookeeper/
# wget https://archive.apache.org/dist/zookeeper/zookeeper-3.4.14/zookeeper-3.4.14.tar.gz
1.2 解壓#
# tar -zxvf zookeeper-3.4.14.tar.gz
1.3 配置環境變量#
# vim /etc/profile
添加環境變量:
export ZOOKEEPER_HOME=/usr/app/zookeeper-3.4.14 export PATH=$ZOOKEEPER_HOME/bin:$PATH
使得配置的環境變量生效:
# source /etc/profile
1.4 修改配置#
進入安裝目錄的 conf/ 目錄下,拷貝配置樣本并進行修改:
# cp zoo_sample.cfg zoo.cfg
指定數據存儲目錄和日志文件目錄(目錄不用預先創建,程序會自動創建),修改后完整配置如下:
# The number of milliseconds of each tick tickTime=2000 # The number of ticks that the initial # synchronization phase can take initLimit=10 # The number of ticks that can pass between # sending a request and getting an acknowledgement syncLimit=5 # the directory where the snapshot is stored. # do not use /tmp for storage, /tmp here is just # example sakes. dataDir=/usr/local/zookeeper/data dataLogDir=/usr/local/zookeeper/log # the port at which the clients will connect clientPort=2181 # the maximum number of client connections. # increase this if you need to handle more clients #maxClientCnxns=60 # # Be sure to read the maintenance section of the # administrator guide before turning on autopurge. # # http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance # # The number of snapshots to retain in dataDir #autopurge.snapRetainCount=3 # Purge task interval in hours # Set to "0" to disable auto purge feature #autopurge.purgeInterval=1
配置參數說明:
?tickTime:用于計算的基礎時間單元。比如 session 超時:N*tickTime;
?initLimit:用于集群,允許從節點連接并同步到 master 節點的初始化連接時間,以 tickTime 的倍數來表示;
?syncLimit:用于集群, master 主節點與從節點之間發送消息,請求和應答時間長度(心跳機制);
?dataDir:數據存儲位置;
?dataLogDir:日志目錄;
?clientPort:用于客戶端連接的端口,默認 2181
1.5 啟動#
由于已經配置過環境變量,直接使用下面命令啟動即可:
zkServer.sh start
1.6 驗證#
使用 JPS 驗證進程是否已經啟動,出現 QuorumPeerMain 則代表啟動成功。
[root@hadoop001 bin]# jps 3814 QuorumPeerMain
二、集群環境搭建#
為保證集群高可用,Zookeeper 集群的節點數最好是奇數,最少有三個節點,所以這里演示搭建一個三個節點的集群。這里我使用三臺主機進行搭建,主機名分別為 hadoop001,hadoop002,hadoop003。
2.1 修改配置#
解壓一份 zookeeper 安裝包,修改其配置文件 zoo.cfg,內容如下。之后使用 scp 命令將安裝包分發到三臺服務器上:
tickTime=2000 initLimit=10 syncLimit=5 dataDir=/usr/local/zookeeper-cluster/data/ dataLogDir=/usr/local/zookeeper-cluster/log/ clientPort=2181 # server.1 這個1是服務器的標識,可以是任意有效數字,標識這是第幾個服務器節點,這個標識要寫到dataDir目錄下面myid文件里 # 指名集群間通訊端口和選舉端口 server.1=hadoop001:2287:3387 server.2=hadoop002:2287:3387 server.3=hadoop003:2287:3387
2.2 標識節點#
分別在三臺主機的 dataDir 目錄下新建 myid 文件,并寫入對應的節點標識。Zookeeper 集群通過 myid 文件識別集群節點,并通過上文配置的節點通信端口和選舉端口來進行節點通信,選舉出 Leader 節點。
創建存儲目錄:
# 三臺主機均執行該命令 mkdir -vp /usr/local/zookeeper-cluster/data/
創建并寫入節點標識到 myid 文件:
# hadoop001主機 echo "1" > /usr/local/zookeeper-cluster/data/myid # hadoop002主機 echo "2" > /usr/local/zookeeper-cluster/data/myid # hadoop003主機 echo "3" > /usr/local/zookeeper-cluster/data/myid
2.3 啟動集群#
分別在三臺主機上,執行如下命令啟動服務:
/usr/app/zookeeper-cluster/zookeeper/bin/zkServer.sh start
2.4 集群驗證#
啟動后使用 zkServer.sh status 查看集群各個節點狀態。如圖所示:三個節點進程均啟動成功,并且 hadoop002 為 leader 節點,hadoop001 和 hadoop003 為 follower 節點。
以上是“Zookeeper 單機環境和集群環境的搭建方法”這篇文章的所有內容,感謝各位的閱讀!希望分享的內容對大家有幫助,更多相關知識,歡迎關注億速云行業資訊頻道!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。