91超碰碰碰碰久久久久久综合_超碰av人澡人澡人澡人澡人掠_国产黄大片在线观看画质优化_txt小说免费全本

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

Java分布式之Kafka消息隊列實例分析

發布時間:2022-07-28 13:58:25 來源:億速云 閱讀:159 作者:iii 欄目:開發技術

這篇文章主要介紹“Java分布式之Kafka消息隊列實例分析”,在日常操作中,相信很多人在Java分布式之Kafka消息隊列實例分析問題上存在疑惑,小編查閱了各式資料,整理出簡單好用的操作方法,希望對大家解答”Java分布式之Kafka消息隊列實例分析”的疑惑有所幫助!接下來,請跟著小編一起來學習吧!

介紹

Apache Kafka 是分布式發布-訂閱消息系統,在 kafka官網上對 kafka 的定義:一個分布式發布-訂閱消息傳遞系統。 它最初由LinkedIn公司開發,Linkedin于2010年貢獻給了Apache基金會并成為頂級開源項目。Kafka是一種快速、可擴展的、設計內在就是分布式的,分區的和可復制的提交日志服務。

注意:Kafka并沒有遵循JMS規范(),它只提供了發布和訂閱通訊方式。

Kafka核心相關名稱

  1. Broker:Kafka節點,一個Kafka節點就是一個broker,多個broker可以組成一個Kafka集群

  2. Topic:一類消息,消息存放的目錄即主題,例如page view日志、click日志等都可以以topic的形式存在,Kafka集群能夠同時負責多個topic的分發

  3. massage: Kafka中最基本的傳遞對象。

  4. Partition:topic物理上的分組,一個topic可以分為多個partition,每個partition是一個有序的隊列。Kafka里面實現分區,一個broker就是表示一個區域。

  5. Segment:partition物理上由多個segment組成,每個Segment存著message信息

  6. Producer : 生產者,生產message發送到topic

  7. Consumer : 消費者,訂閱topic并消費message, consumer作為一個線程來消費

  8. Consumer Group:消費者組,一個Consumer Group包含多個consumer

  9. Offset:偏移量,理解為消息 partition 中消息的索引位置

主題和隊列的區別:

隊列是一個數據結構,遵循先進先出原則

kafka集群安裝

  • 每臺服務器上安裝jdk1.8環境

  • 安裝Zookeeper集群環境

  • 安裝kafka集群環境

  • 運行環境測試

Java分布式之Kafka消息隊列實例分析

安裝jdk環境和zookeeper這里不詳述了。

kafka為什么依賴于zookeeper:kafka會將mq信息存放到zookeeper上,為了使整個集群能夠方便擴展,采用zookeeper的事件通知相互感知。

kafka集群安裝步驟:

1、下載kafka的壓縮包

2、解壓安裝包

tar -zxvf kafka_2.11-1.0.0.tgz

3、修改kafka的配置文件 config/server.properties

配置文件修改內容:

  • zookeeper連接地址:zookeeper.connect=192.168.1.19:2181

  • 監聽的ip,修改為本機的iplisteners=PLAINTEXT://192.168.1.19:9092

  • kafka的brokerid,每臺broker的id都不一樣broker.id=0

4、依次啟動kafka

./kafka-server-start.sh -daemon config/server.properties

kafka使用

kafka文件存儲

topic是邏輯上的概念,而partition是物理上的概念,每個partition對應于一個log文件,該log文件中存儲的就是Producer生成的數據。Producer生成的數據會被不斷追加到該log文件末端,為防止log文件過大導致數據定位效率低下,Kafka采取了分片和索引機制,將每個partition分為多個segment,每個segment包括:“.index”文件、“.log”文件和.timeindex等文件。這些文件位于一個文件夾下,該文件夾的命名規則為:topic名稱+分區序號。

例如:執行命令新建一個主題,分三個區存放放在三個broker中:

./kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 3 --topic kaico

Java分布式之Kafka消息隊列實例分析

Java分布式之Kafka消息隊列實例分析

  • 一個partition分為多個segment

  • .log 日志文件

  • .index 偏移量索引文件

  • .timeindex 時間戳索引文件

  • 其他文件(partition.metadata,leader-epoch-checkpoint)

Springboot整合kafka

maven依賴

 <dependencies>
        <!-- springBoot集成kafka -->
        <dependency>
            <groupId>org.springframework.kafka</groupId>
            <artifactId>spring-kafka</artifactId>
        </dependency>
        <!-- SpringBoot整合Web組件 -->
        <dependency>
            <groupId>org.springframework.boot</groupId>
            <artifactId>spring-boot-starter-web</artifactId>
        </dependency>
    </dependencies>

yml配置

# kafka
spring:
  kafka:
    # kafka服務器地址(可以多個)
#    bootstrap-servers: 192.168.212.164:9092,192.168.212.167:9092,192.168.212.168:9092
    bootstrap-servers: www.kaicostudy.com:9092,www.kaicostudy.com:9093,www.kaicostudy.com:9094
    consumer:
      # 指定一個默認的組名
      group-id: kafkaGroup1
      # earliest:當各分區下有已提交的offset時,從提交的offset開始消費;無提交的offset時,從頭開始消費
      # latest:當各分區下有已提交的offset時,從提交的offset開始消費;無提交的offset時,消費新產生的該分區下的數據
      # none:topic各分區都存在已提交的offset時,從offset后開始消費;只要有一個分區不存在已提交的offset,則拋出異常
      auto-offset-reset: earliest
      # key/value的反序列化
      key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
    producer:
      # key/value的序列化
      key-serializer: org.apache.kafka.common.serialization.StringSerializer
      value-serializer: org.apache.kafka.common.serialization.StringSerializer
      # 批量抓取
      batch-size: 65536
      # 緩存容量
      buffer-memory: 524288
      # 服務器地址
      bootstrap-servers: www.kaicostudy.com:9092,www.kaicostudy.com:9093,www.kaicostudy.com:9094

生產者

@RestController
public class KafkaController {
	/**
	 * 注入kafkaTemplate
	 */
	@Autowired
	private KafkaTemplate<String, String> kafkaTemplate;
	/**
	 * 發送消息的方法
	 *
	 * @param key
	 *            推送數據的key
	 * @param data
	 *            推送數據的data
	 */
	private void send(String key, String data) {
		// topic 名稱 key   data 消息數據
		kafkaTemplate.send("kaico", key, data);
	}
	// test 主題 1 my_test 3
	@RequestMapping("/kafka")
	public String testKafka() {
		int iMax = 6;
		for (int i = 1; i < iMax; i++) {
			send("key" + i, "data" + i);
		}
		return "success";
	}
}

消費者

@Component
public class TopicKaicoConsumer {
    /**
     * 消費者使用日志打印消息
     */
    @KafkaListener(topics = "kaico") //監聽的主題
    public void receive(ConsumerRecord<?, ?> consumer) {
        System.out.println("topic名稱:" + consumer.topic() + ",key:" +
                consumer.key() + "," +
                "分區位置:" + consumer.partition()
                + ", 下標" + consumer.offset());
        //輸出key對應的value的值
        System.out.println(consumer.value());
    }
}

到此,關于“Java分布式之Kafka消息隊列實例分析”的學習就結束了,希望能夠解決大家的疑惑。理論與實踐的搭配能更好的幫助大家學習,快去試試吧!若想繼續學習更多相關知識,請繼續關注億速云網站,小編會繼續努力為大家帶來更多實用的文章!

向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

睢宁县| 吉安县| 图们市| 察隅县| 牡丹江市| 道孚县| 龙门县| 长寿区| 顺昌县| 嫩江县| 城市| 邯郸市| 崇州市| 泰和县| 察雅县| 枣庄市| 朔州市| 乡城县| 吴旗县| 广东省| 乌鲁木齐县| 张家港市| 富平县| 山东| 额敏县| 云林县| 宜兴市| 高淳县| 敖汉旗| 星座| 商都县| 中西区| 陇西县| 伊吾县| 哈巴河县| 吉木乃县| 潼关县| 于都县| 岳西县| 和田县| 罗山县|