Nginx整合Kafka

背景

nginx-kafka-module是nginx的一個插件,能夠將kafka整合到nginx中,便於web項目中前端頁面埋點數據的收集,如前端頁面設置了埋點,便可將用戶的一些訪問和請求數據經過http請求直接發送到消息中間件kafka中,後端能夠經過程序消費kafka中的消息來進行實時的計算。好比經過SparkStream來實時的消費Kafka中的數據來分析用戶PV,UV、用戶的一些行爲及頁面的漏斗模型轉化率,來更好的對系統進行優化或者對來訪用戶進行實時動態的分析。前端

具體整合步驟

1.安裝git
    yum install -y git
2.切換到/usr/local/src目錄,而後將kafka的c客戶端源碼clone到本地
    cd /usr/local/src
    git clone https://github.com/edenhill/librdkafka
3.進入到librdkafka,而後進行編譯
    cd librdkafka
    yum install -y gcc gcc-c++ pcre-devel zlib-devel
    ./configure
    make && make install

4.安裝nginx整合kafka的插件,進入到/usr/local/src,clone nginx整合kafka的源碼
    cd /usr/local/src
    git clone https://github.com/brg-liuwei/ngx_kafka_module

5.進入到nginx的源碼包目錄下   (編譯nginx,而後將將插件同時編譯)
    cd /usr/local/src/nginx-1.12.2
    ./configure --add-module=/usr/local/src/ngx_kafka_module/
    make && make install

6.修改nginx的配置文件:設置一個location和kafaka的topic,詳情請查看當前目錄的nginx.conf
#添加配置(2處)
kafka;
kafka_broker_list f1:9092 f2:9092 f3:9092;

location = /kafka/access {
            kafka_topic access888;
        }

以下圖:
Nginx整合Kafkanginx

Nginx整合Kafka

7.啓動zk和kafka集羣(建立topic)
    zkServer.sh start
    kafka-server-start.sh -daemon config/server.properties

8.啓動nginx,報錯,找不到kafka.so.1的文件
    error while loading shared libraries: librdkafka.so.1: cannot open shared object file: No such file or directory
9.加載so庫
    #開機加載/usr/local/lib下面的庫
    echo "/usr/local/lib" >> /etc/ld.so.conf
    #手動加載
    ldconfig

10.測試,向nginx中寫入數據,而後觀察kafka的消費者能不能消費到數據
    curl http://localhost/kafka/access -d "message send to kafka topic"
    curl http://localhost/kafka/access -d "小偉666"

測試

也能夠模擬頁面埋點請求接口來發送信息:
Nginx整合Kafkac++

後臺Kafka消費信息如圖:
Nginx整合Kafkagit

相關文章
相關標籤/搜索