您好,登錄后才能下訂單哦!
這篇文章主要講解了“Kafka基礎知識點有哪些”,文中的講解內容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“Kafka基礎知識點有哪些”吧!
Hadoop102 | Haoop103 | Hadoop104 |
---|---|---|
Zookeeper | Zookeeper | Zookeeper |
kafka | kafka | kafka |
http://kafka.apache.org/downloads
1)解壓安裝包 tar -zxvf kafka_2.11-2.4.1.tgz -C /opt/module/ 2)修改解壓后的文件名稱 mv kafka_2.11-2.4.1/ kafka 3)在/opt/module/kafka目錄下創建logs文件夾 mkdir logs
4)修改配置文件 cd config/ vi server.properties 輸入以下內容: #broker的全局唯一編號,不能重復 broker.id=2 --需要修改 #處理網絡請求的線程數量 num.network.threads=3 #用來處理磁盤IO的現成數量 num.io.threads=8 #發送套接字的緩沖區大小 socket.send.buffer.bytes=102400 #接收套接字的緩沖區大小 socket.receive.buffer.bytes=102400 #請求套接字的緩沖區大小 socket.request.max.bytes=104857600 #kafka運行日志存放的路徑 log.dirs=/opt/module/kafka/logs --需要修改 #topic在當前broker上的分區個數 num.partitions=1 #用來恢復和清理data下數據的線程數量 num.recovery.threads.per.data.dir=1 #segment文件保留的最長時間,超時將被刪除 log.retention.hours=168 #配置連接Zookeeper集群地址 zookeeper.connect=hadoop102:2181,hadoop103:2181,hadoop104:2181/kafka --需要修改
5)配置環境變量 sudo vim /etc/profile.d/my_env #KAFKA_HOME export KAFKA_HOME=/opt/module/kafka export PATH=$PATH:$KAFKA_HOME/bin source /etc/profile.d/my_env 6)分發安裝包 xsync kafka/ 注意:分發之后記得配置其他機器的環境變量 分別在hadoop103和hadoop104上修改配置文件 /opt/module/kafka/config/server.properties中的broker.id=3、broker.id=4 注:broker.id不得重復!!!!
7)啟動集群 依次在hadoop102、hadoop103、hadoop104節點上啟動kafka [atguigu@hadoop102 kafka]$ kafka-server-start.sh -daemon $KAFKA_HOME/config/server.properties [atguigu@hadoop103 kafka]$ kafka-server-start.sh -daemon $KAFKA_HOME/config/server.properties [atguigu@hadoop104 kafka]$ kafka-server-start.sh -daemon $KAFKA_HOME/config/server.properties 8)關閉集群 [atguigu@hadoop102 kafka]$ bin/kafka-server-stop.sh [atguigu@hadoop103 kafka]$ bin/kafka-server-stop.sh [atguigu@hadoop104 kafka]$ bin/kafka-server-stop.sh
9)kafka群起群停腳本 !#/bin/bash #1、判斷參數個數 if [ $# -ne 1 ];then echo "args num is error!!!" exit fi #2、根據輸入的參數執行邏輯 case $1 in "start") for host in hadoop02,hadoop103,hadoop104 do echo “===============start $host kafka===============” ssh $host "/opt/module/kafka/bin/kafka-server-start.sh -daemon /opt/module/kafka/config/server.properties" done ;; "stop") for host in hadoop102,hadoop103,hadoop104 do echo “===============stop $host kafka===============” ssh $host "/opt/module/kafka/bin/kafka-server-stop.sh" done ;; "status") for host in hadoop102,hadoop103,hadoop104 do pid=$(ssh $host "ps -ef | grep server.properties | grep -v grep") [ "$pid" ] && echo "kafka進程正常" || echo "kafka進程不存在或者異常" done ;; *) echo "input arg error!!! (stop,start,status)" ;; esac
kafka-topics.sh --list --bootstrap-server hadoop102:9092,hadoop103:9092,hadoop104:9092
kafka-topics.sh --create --bootstrap-server hadoop102:9092,hadoop103:9092 --topic second --partitions 2 --replication-factor 2 選項說明: --topic 定義topic名 --replication-factor 定義副本數 --partitions 定義分區數
kafka-topics.sh --delete --bootstrap-server hadoop102:9092,hadoop103:9092 --topic second
kafka-console-producer.sh --broker-list hadoop102:9092 --topic first
kafka-console-consumer.sh --bootstrap-server hadoop102:9092 --from-beginning --topic first --from-beginning:會把主題中以往所有的數據都讀取出來。
kafka-topics.sh --describe --bootstrap-server hadoop102:9092,hadoop103:9092 --topic first
kafka-topics.sh --alter --bootstrap-server hadoop102:9092,hadoop103:9092 --topic first --partition 6 注意:分區只能改大不能改小,不能修改副本數
感謝各位的閱讀,以上就是“Kafka基礎知識點有哪些”的內容了,經過本文的學習后,相信大家對Kafka基礎知識點有哪些這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是億速云,小編將為大家推送更多相關知識點的文章,歡迎關注!
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。