91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

kafka&zookeeper

發布時間:2020-07-17 17:25:04 來源:網絡 閱讀:575 作者:1243983186 欄目:大數據

一、搭建Zookeeper集群
Zookeeper是一個分布式開源框架,提供了協調分布式應用的基本服務,它向外部應用暴露一組通用服務——分布式同步(Distributed Synchronization)、命名服務(Naming Service)、集群維護(Group Maintenance)等,簡化分布式應用協調及其管理的難度,提供高性能的分布式服務。ZooKeeper本身可以以單機模式安裝運行,不過它的長處在于通過分布式ZooKeeper集群(一個Leader,多個Follower),基于一定的策略來保證ZooKeeper集群的穩定性和可用性,從而實現分布式應用的可靠性。

1.在zookeeper.apache.org上下載zookeeper-3.4.8.tar.gz
2.解壓 tar -xzvf zookeeper-3.4.8.tar.gz
3.修改權限 sudo chown -R cms(ubuntu用戶名) zookeeper-3.4.8
4.修改配置文件 /etc/profile,增加

kafka&zookeeper
5.對Zookeeper的配置文件的參數進行設置
進入zookeeper-3.4.5/conf
1)cp zoo_sample.cfg zoo.cfg
2)在zookeeper下新建一個存放數據的目錄
mkdir zookerperdata
3)vim zoo.cfgkafka&zookeeper
4)注意上圖的配置中master,slave1分別為主機名
在上面的配置文件中"server.id=host:port:port"中的第一個port是從機器(follower)連接到主機器(leader)的端口號,第二個port是進行leadership選舉的端口號。
5)創建myid
接下來在dataDir所指定的目錄下(zookeeper-3.4.8/zookerperdata/)創建一個文件名為myid的文件,文件中的內容只有一行,為本主機對應的id值,也就是上圖中server.id中的id。例如:在服務器1中的myid的內容應該寫入1。
vim myid
6)遠程復制到slave1,slave2相同的目錄下
scp -r zookeeper-3.4.8 cms@slave1:/home/cms/
scp -r zookeeper-3.4.8 cms@slave1:/home/cms/
7)修改slave1,slave2機器上的myid的值分別為2和3
啟動ZooKeeper集群
在ZooKeeper集群的每個結點上,執行啟動ZooKeeper服務的腳本,如下所示:

kafka&zookeeperkafka&zookeeperkafka&zookeeper
其中,QuorumPeerMain是zookeeper進程,啟動正常。
如上依次啟動了所有機器上的Zookeeper之后可以通過ZooKeeper的腳本來查看啟動狀態,包括集群中各個結點的角色(或是Leader,或是Follower),如下所示,是在ZooKeeper集群中的每個結點上查詢的結果

二、搭建kafka集群
kafka&zookeeper
1.下載
下載官網:http://kafka.apache.org/downloads
下載版本:與自己安裝的Scala版本對應的版本,個人習慣是下載最新版本的前一版
kafka_2.11-0.10.0.1.tgz
2.安裝
tar -xzf kafka_2.11-0.10.0.1.tgz
cp kafka_2.11-0.10.0.1.tgz /home/cms/kafka
3.配置環境變量
即path、classpath,意義不大,可不配置
4.修改配置文件kafka/config/server.properties
kafka&zookeeper
5.在kafka的目錄下,建立kafka存儲數據的目錄
mkdir kafkalogs
6.其他節點配置
將kafka文件復制到其他節點
kafka&zookeeper
broker.id=1 #整個集群內唯一id號,整數,一般從0開始
listeners=PLAINTEXT://192.168.31.132:9092 #協議、當前broker機器ip、端口
port=9092 #broker端口
host.name=192.168.31.132 #broker 機器ip

7.每個節點下啟動zookerper
8.啟動kafka進程,在每個節點的kafka/bin目錄下

--zookeeper : zookeeper集群列表,用英文逗號分隔。可以不用指定zookeeper整個集群內的節點列表,只指定某個或某幾個zookeeper節點列表也是你可以的
replication-factor : 復制數目,提供failover機制;1代表只在一個broker上有數據記錄,一般值都大于1,代表一份數據會自動同步到其他的多個broker,防止某個broker宕機后數據丟失。
partitions : 一個topic可以被切分成多個partitions,一個消費者可以消費多個partitions,但一個partitions只能被一個消費者消費,所以增加partitions可以增加消費者的吞吐量。kafka只保證一個partitions內的消息是有序的,多個一個partitions之間的數據是無序的。

9.啟動生產者和消費者
生產者:kafka-console-producer.sh --broker-list 192.168.31.131:9092 --topic test5
--broker-list : 值可以為broker集群中的一個或多個節點
消費者:
kafka-console-consumer.sh --zookeeper 192.168.31.131:2181,192.168.31.132:2181,192.168.31.133:2181 --topic test5 --from-beginning
--zookeeper : 值可以為zookeeper集群中的一個或多個節點
--from-beginning 表示從開始第一個消息開始接收

10.查看topic
kafka-topics.sh --list --zookeeper 192.168.31.131:2181,192.168.31.132:2181,192.168.31.133:2181
11.查看topic詳情
kafka-topics.sh --describe --zookeeper 192.168.31.131:2181,192.168.31.132:2181,192.168.31.133:2181 --topic test5
kafka&zookeeper

狀態說明:test有三個分區分別為1、2、3,分區0的leader是3(broker.id),分區0有三個副本,并且狀態都為lsr(ln-sync,表示可以參加選舉成為leader)。

12.創建分區為3、備份為3的topic
bin/kafka-topics.sh --create --zookeeper 192.168.31.131:2181,192.168.31.132:2182,192.168.31.133:2183 --replication-factor 3 --partitions 3 --topic test5

13.刪除topic
在config/server.properties中加入delete.topic.enable=true并重啟服務,在執行如下命令

kafka-topics.sh --delete --zookeeper 192.168.31.131:2181,192.168.31.132:2181,192.168.31.133:2181 --topic test5

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

年辖:市辖区| 共和县| 五河县| 会宁县| 梁河县| 容城县| 宁武县| 大厂| 大关县| 肇庆市| 永年县| 永德县| 唐河县| 仙游县| 绥德县| 海兴县| 临武县| 顺平县| 会东县| 肃南| 江门市| 太白县| 民权县| 崇文区| 湘乡市| 永定县| 宝兴县| 阿拉善右旗| 庆云县| 寿光市| 大邑县| 汶上县| 德惠市| 仲巴县| 弋阳县| 神农架林区| 铜鼓县| 轮台县| 会东县| 靖州| 遂昌县|