您好,登錄后才能下訂單哦!
這期內容當中小編將會給大家帶來有關Elasticsearch+Fluentd+Kafka怎么搭建分布式日志系統,文章內容豐富且以專業的角度為大家分析和敘述,閱讀完這篇文章希望大家可以有所收獲。
由于logstash內存占用較大,靈活性相對沒那么好,ELK正在被EFK逐步替代.其中本文所講的EFK是Elasticsearch+Fluentd+Kfka,實際上K應該是Kibana用于日志的展示,這一塊不做演示,本文只講述數據的采集流程.
docker
docker-compose
apache kafka服務
數據的產生使用cadvisor采集容器的監控數據并將數據傳輸到Kafka.
數據的傳輸鏈路是這樣: Cadvospr->Kafka->Fluentd->elasticsearch
每一個服務都可以橫向擴展,添加服務到日志系統中.
docker-compose.yml
version: "3.7"
services: elasticsearch: image: elasticsearch:7.5.1 environment: - discovery.type=single-node #使用單機模式啟動 ports: - 9200:9200 cadvisor: image: google/cadvisor command: -storage_driver=kafka -storage_driver_kafka_broker_list=192.168.1.60:9092(kafka服務IP:PORT) -storage_driver_kafka_topic=kafeidou depends_on: - elasticsearch fluentd: image: lypgcs/fluentd-es-kafka:v1.3.2 volumes: - ./:/etc/fluent - /var/log/fluentd:/var/log/fluentd
其中:
cadvisor產生的數據會傳輸到192.168.1.60這臺機器的kafka服務,topic為kafeidou
elasticsearch指定為單機模式啟動(discovery.type=single-node
環境變量),單機模式啟動是為了方便實驗整體效果
fluent.conf
#<source>
# type http
# port 8888
#</source>
<source>
@type kafka
brokers 192.168.1.60:9092
format json
<topic>
topic kafeidou
</topic>
</source>
<match **>
@type copy
# <store>
# @type stdout
# </store>
<store>
@type elasticsearch
host 192.168.1.60
port 9200
logstash_format true
#target_index_key machine_name
logstash_prefix kafeidou
logstash_dateformat %Y.%m.%d
flush_interval 10s
</store>
</match>
其中:
type為copy的插件是為了能夠將fluentd接收到的數據復制一份,是為了方便調試,將數據打印在控制臺或者存儲到文件中,這個配置文件默認關閉了,只提供必要的es輸出插件.
需要時可以將@type stdout
這一塊打開,調試是否接收到數據.
輸入源也配置了一個http的輸入配置,默認關閉,也是用于調試,往fluentd放入數據.
可以在linux上執行下面這條命令:
curl -i -X POST -d 'json={"action":"write","user":"kafeidou"}' http://localhost:8888/mytag
target_index_key參數,這個參數是將數據中的某個字段對應的值作為es的索引,例如這個配置文件用的是machine_name這個字段內的值作為es的索引.
在包含docker-compose.yml文件和fluent.conf文件的目錄下執行:docker-compose up -d
在查看所有容器都正常工作之后可以查看一下elasticsearch是否生成了預期中的數據作為驗證,這里使用查看es的索引是否有生成以及數據數量來驗證:
-bash: -: 未找到命令
[root@master kafka]# curl http://192.168.1.60:9200/_cat/indices?v
health status index uuid pri rep docs.count docs.deleted store.size pri.store.size
yellow open 55a4a25feff6 Fz_5v3suRSasX_Olsp-4tA 1 1 1 0 4kb 4kb
也可以直接在瀏覽器輸入http://192.168.1.60:9200/_cat/indices?v
查看結果,會更方便.
可以看到我這里是用了machine_name這個字段作為索引值,查詢的結果是生成了一個叫55a4a25feff6
的索引數據,生成了1條數據(docs.count
)
到目前為止kafka->fluentd->es
這樣一個日志收集流程就搭建完成了.
當然了,架構不是固定的.也可以使用fluentd->kafka->es
這樣的方式進行收集數據.這里不做演示了,無非是修改一下fluentd.conf配置文件,將es和kafka相關的配置做一下對應的位置調換就可以了.
鼓勵多看官方文檔,在github或fluentd官網上都可以查找到fluentd-es插件和fluentd-kafka插件.
上述就是小編為大家分享的Elasticsearch+Fluentd+Kafka怎么搭建分布式日志系統了,如果剛好有類似的疑惑,不妨參照上述分析進行理解。如果想知道更多相關知識,歡迎關注億速云行業資訊頻道。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。