kafka server.properties配置文件詳解

0.9.0

############################# Server Basics #############################java

# 節點的ID,必須與其它節點不一樣
broker.id=0node

############################# Socket Server Settings #############################緩存

listeners=PLAINTEXT://:9092安全

# 監聽端口
#port=9092服務器

# 節點須要綁定的主機名稱。若是沒有設置,服務器會綁定到全部接口
#host.name=localhost網絡

# 節點的主機名會通知給生產者和消費者。若是沒有設置,它將會使用"host.name"的值(前提是設置了host.name)。
# 不然他會使用java.net.InetAddress.getCanonicalHostName()的返回值
#advertised.host.name=<hostname routable by clients>socket

# 這個端口將暴露給Zookeeper以供客戶端來使用。若是沒有設置,將會暴露節點綁定的端口
#advertised.port=<port accessible by clients>測試

# 接受網絡請求的線程數
num.network.threads=3url

# 進行磁盤IO的線程數
num.io.threads=8.net

# 套接字服務器使用的發送緩衝區大小
socket.send.buffer.bytes=102400

# 套接字服務器使用的接收緩衝區大小
socket.receive.buffer.bytes=102400

# 單個請求最大能接收的數據量
socket.request.max.bytes=104857600


############################# Log Basics #############################

# 一個逗號分隔的目錄列表,用來存儲日誌文件
log.dirs=/tmp/kafka-logs

# 每一個主題的日誌分區的默認數量。更多的分區容許更大的並行操做,可是它會致使節點產生更多的文件
num.partitions=1

# 每一個數據目錄中的線程數,用於在啓動時日誌恢復,並在關閉時刷新。
num.recovery.threads.per.data.dir=1

############################# Log Flush Policy #############################

# 消息直接被寫入文件系統,可是默認狀況下咱們僅僅調用fsync()以延遲的同步系統緩存
# 這些有一些重要的權衡
# 1. 持久性:若是不使用複製,未刷新的數據可能會丟失。
# 2. 延遲:很是大的刷新間隔可能會在刷新時致使延遲,由於將會有大量數據刷新。
# 3. 吞吐量:刷新一般是最昂貴的操做,而一個小的刷新間隔可能會致使過多的搜索。
# 下面的設置容許你去配置刷新策略,每隔一段時間刷新或者一次N個消息(或者兩個都配置)。這能夠在全局範圍內完成,並在每一個主題的基礎上重寫。

# 在強制刷新數據到磁盤執勤啊容許接收消息的數量
#log.flush.interval.messages=10000

# 在強制刷新以前,消息能夠在日誌中停留的最長時間
#log.flush.interval.ms=1000

############################# Log Retention Policy #############################

# 如下的配置控制了日誌段的處理。策略能夠配置爲每隔一段時間刪除片斷或者到達必定大小以後。
# 當知足這些條件時,將會刪除一個片斷。刪除老是發生在日誌的末尾。

# 一個日誌的最小存活時間,能夠被刪除
log.retention.hours=168

# 一個基於大小的日誌保留策略。段將被從日誌中刪除只要剩下的部分段不低於log.retention.bytes。
#log.retention.bytes=1073741824

# 每個日誌段大小的最大值。當到達這個大小時,會生成一個新的片斷。
log.segment.bytes=1073741824

# 檢查日誌段的時間間隔,看是否能夠根據保留策略刪除它們
log.retention.check.interval.ms=300000

############################# Zookeeper #############################

# Zookeeper鏈接字符串
# 這是一個以逗號爲分割的部分,每個都匹配一個Zookeeper
# 您還能夠將一個可選的chroot字符串附加到url,以指定全部kafka znode的根目錄。
zookeeper.connect=localhost:2181

# 鏈接到Zookeeper的超時時間
zookeeper.connection.timeout.ms=6000

0.10.1

############################# Server Basics #############################

# 節點的ID,必須與其它節點不一樣
broker.id=0

# 選擇啓用刪除主題功能,默認false
#delete.topic.enable=true

############################# Socket Server Settings #############################

# 套接字服務器堅挺的地址。若是沒有配置,就使用java.net.InetAddress.getCanonicalHostName()的返回值
# FORMAT:格式:
# listeners = security_protocol://host_name:port
# EXAMPLE:例子:
# listeners = PLAINTEXT://your.host.name:9092
#listeners=PLAINTEXT://:9092

# 節點的主機名會通知給生產者和消費者。若是沒有設置,若是配置了"listeners"就使用"listeners"的值。
# 不然就使用java.net.InetAddress.getCanonicalHostName()的返回值
#advertised.listeners=PLAINTEXT://your.host.name:9092

# 接受網絡請求的線程數
num.network.threads=3

# 進行磁盤IO的線程數
num.io.threads=8

# 套接字服務器使用的發送緩衝區大小
socket.send.buffer.bytes=102400

# 套接字服務器使用的接收緩衝區大小
socket.receive.buffer.bytes=102400

# 單個請求最大能接收的數據量
socket.request.max.bytes=104857600


############################# Log Basics #############################

# 一個逗號分隔的目錄列表,用來存儲日誌文件
log.dirs=/tmp/kafka-logs

# 每一個主題的日誌分區的默認數量。更多的分區容許更大的並行操做,可是它會致使節點產生更多的文件
num.partitions=1

# 每一個數據目錄中的線程數,用於在啓動時日誌恢復,並在關閉時刷新。
num.recovery.threads.per.data.dir=1

############################# Log Flush Policy #############################

# 消息直接被寫入文件系統,可是默認狀況下咱們僅僅調用fsync()以延遲的同步系統緩存
# 這些有一些重要的權衡
# 1. 持久性:若是不使用複製,未刷新的數據可能會丟失。
# 2. 延遲:很是大的刷新間隔可能會在刷新時致使延遲,由於將會有大量數據刷新。
# 3. 吞吐量:刷新一般是最昂貴的操做,而一個小的刷新間隔可能會致使過多的搜索。
# 下面的設置容許你去配置刷新策略,每隔一段時間刷新或者一次N個消息(或者兩個都配置)。這能夠在全局範圍內完成,並在每一個主題的基礎上重寫。

# 在強制刷新數據到磁盤以前容許接收消息的數量
#log.flush.interval.messages=10000

# 在強制刷新以前,消息能夠在日誌中停留的最長時間
#log.flush.interval.ms=1000

############################# Log Retention Policy #############################

# 如下的配置控制了日誌段的處理。策略能夠配置爲每隔一段時間刪除片斷或者到達必定大小以後。
# 當知足這些條件時,將會刪除一個片斷。刪除老是發生在日誌的末尾。

# 一個日誌的最小存活時間,能夠被刪除
log.retention.hours=168

# 一個基於大小的日誌保留策略。段將被從日誌中刪除只要剩下的部分段不低於log.retention.bytes。
#log.retention.bytes=1073741824

# 每個日誌段大小的最大值。當到達這個大小時,會生成一個新的片斷。
log.segment.bytes=1073741824

# 檢查日誌段的時間間隔,看是否能夠根據保留策略刪除它們
log.retention.check.interval.ms=300000

############################# Zookeeper #############################

# Zookeeper鏈接字符串
zookeeper.connect=localhost:2181

# 鏈接到Zookeeper的超時時間
zookeeper.connection.timeout.ms=6000

0.11.0

############################# Server Basics #############################

# 節點的ID,必須與其它節點不一樣
broker.id=0

# 選擇啓用刪除主題功能,默認false
#delete.topic.enable=true

############################# Socket Server Settings #############################

# 套接字服務器堅挺的地址。若是沒有配置,就使用java.net.InetAddress.getCanonicalHostName()的返回值
# FORMAT:
# listeners = listener_name://host_name:port
# EXAMPLE:
# listeners = PLAINTEXT://your.host.name:9092
#listeners=PLAINTEXT://:9092

# 節點的主機名會通知給生產者和消費者。若是沒有設置,若是配置了"listeners"就使用"listeners"的值。
# 不然就使用java.net.InetAddress.getCanonicalHostName()的返回值
#advertised.listeners=PLAINTEXT://your.host.name:9092

# 將偵聽器的名稱映射到安全協議,默認狀況下它們是相同的。有關詳細信息,請參閱配置文檔
#listener.security.protocol.map=PLAINTEXT:PLAINTEXT,SSL:SSL,SASL_PLAINTEXT:SASL_PLAINTEXT,SASL_SSL:SASL_SSL

# 服務器用來接受請求或者發送響應的線程數
num.network.threads=3

# 服務器用來處理請求的線程數,可能包括磁盤IO
num.io.threads=8

# 套接字服務器使用的發送緩衝區大小
socket.send.buffer.bytes=102400

# 套接字服務器使用的接收緩衝區大小
socket.receive.buffer.bytes=102400

# 單個請求最大能接收的數據量
socket.request.max.bytes=104857600


############################# Log Basics #############################

# 一個逗號分隔的目錄列表,用來存儲日誌文件
log.dirs=/tmp/kafka-logs

# 每一個主題的日誌分區的默認數量。更多的分區容許更大的並行操做,可是它會致使節點產生更多的文件
num.partitions=1

# 每一個數據目錄中的線程數,用於在啓動時日誌恢復,並在關閉時刷新。
num.recovery.threads.per.data.dir=1

############################# Internal Topic Settings #############################
# 內部主題設置
# 對於除了開發測試以外的其餘任何東西,group元數據內部主題的複製因子「__consumer_offsets」和「__transaction_state」,建議值大於1,以確保可用性(如3)。
offsets.topic.replication.factor=1
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1

############################# Log Flush Policy #############################

 

# 在強制刷新數據到磁盤以前容許接收消息的數量
#log.flush.interval.messages=10000

# 在強制刷新以前,消息能夠在日誌中停留的最長時間
#log.flush.interval.ms=1000

############################# Log Retention Policy #############################

# 如下的配置控制了日誌段的處理。策略能夠配置爲每隔一段時間刪除片斷或者到達必定大小以後。
# 當知足這些條件時,將會刪除一個片斷。刪除老是發生在日誌的末尾。

# 一個日誌的最小存活時間,能夠被刪除
log.retention.hours=168

# 一個基於大小的日誌保留策略。段將被從日誌中刪除只要剩下的部分段不低於log.retention.bytes。
#log.retention.bytes=1073741824

# 每個日誌段大小的最大值。當到達這個大小時,會生成一個新的片斷。
log.segment.bytes=1073741824

# 檢查日誌段的時間間隔,看是否能夠根據保留策略刪除它們
log.retention.check.interval.ms=300000

############################# Zookeeper #############################

zookeeper.connect=localhost:2181

# 鏈接到Zookeeper的超時時間
zookeeper.connection.timeout.ms=6000


############################# Group Coordinator Settings #############################

group.initial.rebalance.delay.ms=0

總結

  #port=9092

  #host.name=localhost

  #advertised.host.name=<hostname routable by clients>

  #advertised.port=<port accessible by clients>

被改成

  #listeners=PLAINTEXT://:9092

  #advertised.listeners=PLAINTEXT://your.host.name:9092
相關文章
相關標籤/搜索