您好,登錄后才能下訂單哦!
這篇文章將為大家詳細講解有關Kafka 1.0.0的安裝使用以及命令是什么,文章內容質量較高,因此小編分享給大家做個參考,希望大家閱讀完這篇文章后對相關知識有一定的了解。
0.三臺機器 data133,data135,data136 1.修改配置文件 server.properties broker.id=1 #全局唯一 log.dirs=/data/kafka/log #kafka存放數據的目錄 zookeeper.connect=data135:2181,data133:2181,data136:2181 port=9092 host.name=data136 然后分發到另兩臺機器 data133:broker.id=2 host.name=data133 data135:broker.id=2 host.name=data135 2.后臺 2.后臺啟動kafka server bin目錄下 nohup ./kafka-server-start.sh ../config/server.properties & 3.創建topic ./kafka-topics.sh --create --topic "test1" --partitions 5 --replication-factor 1 --zookeeper data133 4.通過shell腳本生產消費 生產:./kafka-console-producer.sh -topic test --broker-list data133:9092,data135:9092,data136:9092 消費:./kafka-console-consumer.sh --topic test --from-beginning --bootstrap-server data133:9092 5.顯示所有的topic ./kafka-topics.sh --list --zookeeper bigdata03 --------------------------------------------------------------- flume整合kafka,flume的配置文件 kafka-dest.conf # Name the components on this agent a1.sources=sr1 a1.channels=ch2 a1.sinks=si1 # Describe/configure the source a1.sources.sr1.type=exec a1.sources.sr1.command=tail -F /home/ch.log a1.sources.sr1.batchSize=50 # Describe the sink a1.sinks.si1.type=org.apache.flume.sink.kafka.KafkaSink a1.sinks.si1.kafka.bootstrap.servers=bigdata01:9092,bigdata02:9092,bigdata03:9092 a1.sinks.si1.kafka.topic=test7 a1.sinks.si1.flumeBatchSize=100 a1.sinks.si1.kafka.producer.acks=1 a1.sinks.si1.kafka.producer.partitioner.class=org.apache.kafka.clients.producer.internals.DefaultPartitioner # Use a channel which buffers events in memory a1.channels.ch2.type = memory a1.channels.ch2.capacity = 1000000 a1.channels.ch2.transactionCapacity = 1000 a1.sources.sr1.channels=ch2 a1.sinks.si1.channel=ch2 #the command to start a agent #bin/flume-ng agent -n a1 -c conf -f conf/fkafka-dest.conf
關于Kafka 1.0.0的安裝使用以及命令是什么就分享到這里了,希望以上內容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。