Kafka使用總結與生產消費Demo實現

什麼是kafka

Kafka官網本身的介紹是:一個可支持分佈式的流平臺。
kafka官網介紹前端

kafka三個關鍵能力:
     1.發佈訂閱記錄流,相似於消息隊列與企業信息系統
     2.以容錯的持久方式存儲記錄流
     3.對流進行處理

kafka一般應用再兩大類應用中:
    1.構建實時流數據管道,在系統或應用程序之間可靠地獲取數據
    2.構建轉換或響應數據流的實時流應用程序

kafka的一些基本概念:
    1.Kafka做爲一個集羣運行在一個或多個服務器上,這些服務器能夠跨越多個數據中心。
    2.Kafka集羣將記錄流存儲在稱爲topic的類別中。
    3.每一個記錄由一個鍵、一個值和一個時間戳組成。

kafka核心API:
    1.Producer API:容許應用程序將記錄流發佈到一個或多個topic。
    2.Consumer API:容許應用程序訂閱一個或多個topic並處理生成給它們的記錄流。
    3.Streams API:容許應用程序充當流處理器,使用來自一個或多個topic的輸入流,
    並生成一個或多個輸出topic的輸出流,從而有效地將輸入流轉換爲輸出流。
    4.Connector API:容許構建和運行可重用的生產者或消費者,將topic鏈接到現有的應用程序或數據系統。
    例如,到關係數據庫的鏈接器可能捕獲對錶的每一個更改。

做爲消息系統

傳統消息傳遞有兩類模型:消息隊列、發佈訂閱。在消息隊列中,一個消費者池能夠從一個服務器讀取數據,而每一個記錄都將被髮送到其中一個服務器;在發佈-訂閱中,記錄被廣播給全部消費者。這兩種模型各有優缺點:vue

消息隊列優缺點:
        它容許您在多個使用者實例上劃分數據處理,這使您能夠擴展處理。
        隊列不是多訂閱者的—一旦一個進程讀取了它丟失的數據。

    發佈訂閱優缺點:
        Publish-subscribe容許您將數據廣播到多個進程,
        可是因爲每一個消息都傳遞到每一個訂閱者,所以沒法擴展處理。

做爲消息傳遞系統,那麼跟mq有什麼區別呢?(RabbitMq\redis\RocketMq\ActiveMq)java

RabbitMQ:
     遵循AMQP協議,由內在高併發的erlang語言開發,用在實時的對可靠性要求比較高的消息傳遞上.
     萬級數據量,社區活躍度極高,可視化操做界面豐富。
     提供了全面的核心功能,是消息隊列的優秀產品。
     由於是erlang語言開發,難以維護而且開發者很難二次開發。

Redis:
    redis的主要場景是內存數據庫,做爲消息隊列來講可靠性太差,並且速度太依賴網絡IO。
    在服務器本機上的速度較快,且容易出現數據堆積的問題,在比較輕量的場合下可以適用。

RocketMq:
    rocketMq幾十萬級別數據量,基於Java開發。是阿里巴巴開源的一個消息產品。
    應對了淘寶雙十一考驗,而且文檔十分的完善,擁有一些其餘消息隊列不具有的高級特性,
    如定時推送,其餘消息隊列是延遲推送,如rabbitMq經過設置expire字段設置延遲推送時間。
    又好比rocketmq實現分佈式事務,比較可靠的。RocketMq也是用過的惟一支持分佈式事務的一款產品。

Kafka:
    kafka本來設計的初衷是日誌統計分析,如今基於大數據的背景下也能夠作運營數據的分析統計。
    kafka真正的大規模分佈式消息隊列,提供的核心功能比較少。基於zookeeper實現的分佈式消息訂閱。
    幾十萬級數據量級,比RokectMq更強。
    客戶端和服務器之間的通訊是經過一個簡單的、高性能的、語言無關的TCP協議來完成的。

ActiveMq:
    Apache ActiveMQ™是最流行的開源、多協議、基於java的消息服務器。它支持行業標準協議,
    所以用戶能夠在各類語言和平臺上選擇客戶端。可使用來自C、c++、Python、. net等的鏈接性。
    使用通用的AMQP協議集成您的多平臺應用程序。使用STOMP在websockets上交換web應用程序之間的消息。
    使用MQTT管理物聯網設備。支持您現有的JMS基礎結構及其餘。ActiveMQ提供了支持任何messagi的強大功能
    和靈活性。

備註:由於該文章主要介紹kafka,因此上述只是簡單羅列了一些特色,若是有興趣的同窗能夠詳細的分析一下,這些產品我後續都會專門寫文章來概括總結分析,在這裏先簡單帶過。c++

爲何要用消息隊列?

該部分是擴展內容,不少人包括我剛畢業那年使用消息隊列,但別人問道我爲啥用消息隊列,我都沒有一個很清晰的認識,因此在這裏也說一下。但願給有須要的同窗一些幫助。web

那麼爲何要使用消息隊列呢?首先咱們來回顧一下消息傳遞。前端而言,傳統方式是經過全局變量來傳遞,後面有了數據總線的概念,再後來有相應的解決方案產品好比說vuex、redux、store等。對於後端來講,最早系統之間的通訊,消息傳遞都很是依賴於通訊對象彼此,高度耦合,後面有了一些產品來解決這些問題,好比說webservice.但這樣的方式極其不友好,並且維護繁瑣,職責難以分清,工做量增長,因此mq誕生後,基本解決了這些問題。redis

消息隊列的引入是爲了:vuex

1.解耦:
    好比:A系統操做p,須要將消息傳遞給B、C兩個系統,若是沒有消息隊列,那麼A系統中須要給B發一條消息,
    又得給C發一條消息,而後有一天D、E、F系統說:A系統你也要給我發p的消息,這個時候A又得修改代碼,
    發佈上線,DEF才能正常接收消息。而後過了n天,C又說,不要給我發消息了,把給我發消息的部分去掉吧。
    A系統的開發人員又得哐哧哐哧的去掉,發佈上線。這樣日復一日,隨着系統增多,接入和退出的操做增多,
    那麼A系統須要頻繁發佈上線,下降了穩定性、可用時間、同時每次上線都須要測試跟蹤測試,這裏面的成本
    與風險不言而喻。而消息隊列一旦引入,A不須要關心誰消費,誰退出消費,A只負責將消息放入隊列便可,
    而其餘系統只須要監聽這個隊列,就算其餘系統退出,對A而言也是沒有任何影響的,可以一直持續不斷的
    提供服務,這難道不香嗎?

2.異步
    好比說:傳統方式發送消息給B、C、D,須要120ms,那麼若是採用了消息隊列,就能夠大大下降耗時。但
    這些對於那些非必要的同步業務邏輯適用。

3.削峯
    傳統模式下,請求直接進入到數據庫,當峯值到達必定時,必然會掛掉。若是適用了中間件消息隊列,那麼就能夠很好的保證系統正常提供服務,這也是秒殺系統中會經常談到的限流、這樣能夠防止系統崩潰,提供系統可用性。

配置MAVEN

<dependency>
            <groupId>org.apache.kafka</groupId>
            <artifactId>kafka_2.12</artifactId>
            <version>1.0.0</version>
            <scope>provided</scope>
        </dependency>
        <dependency>
            <groupId>org.apache.kafka</groupId>
            <artifactId>kafka-clients</artifactId>
            <version>1.0.0</version>
        </dependency>
        <dependency>
            <groupId>org.apache.kafka</groupId>
            <artifactId>kafka-streams</artifactId>
            <version>1.0.0</version>
        </dependency>

生產者

/**
 * @author chandlerHuang
 * @description @TODO
 * @date 2020/1/15
 */
public class KafkaProducerService implements Runnable {

    private final KafkaProducer<String,String> producer;

    private final String topic;

    public KafkaProducerService(String topic) {
        Properties props = new Properties();
        props.put("bootstrap.servers", "綁定的外網IP:9092");
        props.put("acks", "all");
        props.put("retries", 0);
        props.put("batch.size", 16384);
        props.put("key.serializer", StringSerializer.class.getName());
        props.put("value.serializer", StringSerializer.class.getName());
        this.producer = new KafkaProducer<String, String>(props);
        this.topic = topic;
    }

    @Override
    public void run() {
        int messageNo = 1;
        try {
            for(;;) {
                String messageStr="["+messageNo+"]:hello,boys!";
                producer.send(new ProducerRecord<String, String>(topic, "Message", messageStr));
                //生產了100條就打印
                if(messageNo%100==0){
                    System.out.println("sendMessages:" + messageStr);
                }
                //生產1000條就退出
                if(messageNo%1000==0){
                    System.out.println("successCount:"+messageNo);
                    break;
                }
                messageNo++;
            }
        } catch (Exception e) {
            e.printStackTrace();
        } finally {
            producer.close();
        }
    }

    public static void main(String args[]) {
        KafkaProducerService test = new KafkaProducerService(TopicConstant.CHART_TOPIC);
        Thread thread = new Thread(test);
        thread.start();
    }
}

Kafka使用總結與生產消費Demo實現
Kafka使用總結與生產消費Demo實現

消費者

/**
 * @author chandlerHuang
 * @description @TODO
 * @date 2020/1/15
 */
public class KafkaConsumerService implements Runnable{

    private final KafkaConsumer<String, String> consumer;
    private ConsumerRecords<String, String> msgList;
    private final String topic;
    private static final String GROUPID = "groupA";

    public KafkaConsumerService(String topicName) {
        Properties props = new Properties();
        props.put("bootstrap.servers", "綁定的外網IP:9092");
        props.put("group.id", GROUPID);
        props.put("enable.auto.commit", "true");
        props.put("auto.commit.interval.ms", "1000");
        props.put("session.timeout.ms", "30000");
        props.put("auto.offset.reset", "earliest");
        props.put("key.deserializer", StringDeserializer.class.getName());
        props.put("value.deserializer", StringDeserializer.class.getName());
        this.consumer = new KafkaConsumer<String, String>(props);
        this.topic = topicName;
        this.consumer.subscribe(Arrays.asList(topic));
    }

    @Override
    public void run() {
        int messageNo = 1;
        System.out.println("---------開始消費---------");
        try {
            for (;;) {
                msgList = consumer.poll(1000);
                if(null!=msgList&&msgList.count()>0){
                    for (ConsumerRecord<String, String> record : msgList) {
                        //消費100條就打印 ,但打印的數據不必定是這個規律的
                        if(messageNo%100==0){
                            System.out.println(messageNo+"=======receive: key = " + record.key() + ", value = " + record.value()+" offset==="+record.offset());
                        }
                        //當消費了1000條就退出
                        if(messageNo%1000==0){
                            break;
                        }
                        messageNo++;
                    }
                }else{
                    Thread.sleep(1000);
                }
            }
        } catch (InterruptedException e) {
            e.printStackTrace();
        } finally {
            consumer.close();
        }
    }
    public static void main(String args[]) {
        KafkaConsumerService test1 = new KafkaConsumerService(TopicConstant.CHART_TOPIC);
        Thread thread1 = new Thread(test1);
        thread1.start();
    }
}

Kafka使用總結與生產消費Demo實現

備註:上述demo編寫過程當中,發現報了一個Exception:Kafka java client 鏈接異常(org.apache.kafka.common.errors.TimeoutException: Failed to update metadata )...數據庫

kafka中須要配置server.文件:apache

advertised.listeners=PLAINTEXT://外網地址:9092

zookeeper.connect=內網地址:2181

若是你是雲服務器的話須要,在安全組設置對應端口開放,不然沒法訪問響應接口!redux

相關文章
相關標籤/搜索