您好,登錄后才能下訂單哦!
這篇“Nginx怎么整合Kafka”文章的知識點大部分人都不太理解,所以小編給大家總結了以下內容,內容詳細,步驟清晰,具有一定的借鑒價值,希望大家閱讀完這篇文章能有所收獲,下面我們一起來看看這篇“Nginx怎么整合Kafka”文章吧。
背景
nginx-kafka-module是nginx的一個插件,可以將kafka整合到nginx中,便于web項目中前端頁面埋點數據的收集,如前端頁面設置了埋點,即可將用戶的一些訪問和請求數據通過http請求直接發送到消息中間件kafka中,后端可以通過程序消費kafka中的消息來進行實時的計算。比如通過sparkstream來實時的消費kafka中的數據來分析用戶pv,uv、用戶的一些行為及頁面的漏斗模型轉化率,來更好的對系統進行優化或者對來訪用戶進行實時動態的分析。
具體整合步驟
1.安裝git
yum install -y git
2.切換到/usr/local/src目錄,然后將kafka的c客戶端源碼clone到本地
cd /usr/local/src git clone https://github.com/edenhill/librdkafka
3.進入到librdkafka,然后進行編譯
cd librdkafka yum install -y gcc gcc-c++ pcre-devel zlib-devel ./configure make && make install
4.安裝nginx整合kafka的插件,進入到/usr/local/src,clone nginx整合kafka的源碼
cd /usr/local/src git clone https://github.com/brg-liuwei/ngx_kafka_module
5.進入到nginx的源碼包目錄下 (編譯nginx,然后將將插件同時編譯)
cd /usr/local/src/nginx-1.12.2 ./configure --add-module=/usr/local/src/ngx_kafka_module/ make && make install
6.修改nginx的配置文件:設置一個location和kafaka的topic
#添加配置(2處) kafka; kafka_broker_list f1:9092 f2:9092 f3:9092; location = /kafka/access { kafka_topic access888; }
如下圖:
7.啟動zk和kafka集群(創建topic)
zkserver.sh start kafka-server-start.sh -daemon config/server.properties
8.啟動nginx,報錯,找不到kafka.so.1的文件
error while loading shared libraries: librdkafka.so.1: cannot open shared object file: no such file or directory
9.加載so庫
#開機加載/usr/local/lib下面的庫 echo "/usr/local/lib" >> /etc/ld.so.conf #手動加載 ldconfig
10.測試,向nginx中寫入數據,然后觀察kafka的消費者能不能消費到數據
curl http://localhost/kafka/access -d "message send to kafka topic" curl http://localhost/kafka/access -d "小偉666"測試
也可以模擬頁面埋點請求接口來發送信息:
后臺kafka消費信息如圖:
以上就是關于“Nginx怎么整合Kafka”這篇文章的內容,相信大家都有了一定的了解,希望小編分享的內容對大家有幫助,若想了解更多相關的知識內容,請關注億速云行業資訊頻道。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。