##broker標(biāo)識(shí),id為正數(shù),且全局不得重復(fù).
broker.id=0
##日志文件保存的目錄 推薦放到存儲(chǔ)大的盤(pán)目錄
log.dirs=/opt/kafkadata/logs
##broker需要使用zookeeper保存meata信息,因此broker為zk
##此處為zookeeper集群的connectString,后面可以跟上path
##不過(guò)需要注意,path的全路徑需要有自己來(lái)創(chuàng)建(使用zookeeper腳本工具)
zookeeper.connect=hostname1:port1,hostname2:port2/kafka
##用來(lái)偵聽(tīng)鏈接的端口,prudcer或consumer將在此端口建立鏈接
port=10000
##指定broker實(shí)例綁定的網(wǎng)絡(luò)接口地址
host.name=ip
##每個(gè)topic默認(rèn)partition的個(gè)數(shù),默認(rèn)為1
num.partitions=2
##日志文件中每個(gè)segment文件的尺寸,默認(rèn)為1G
##log.segment.bytes=1024*1024*1024
##滾動(dòng)生成新的segment文件的最大時(shí)間
##log.roll.hours=24*7
##segment文件保留的最長(zhǎng)時(shí)間,超時(shí)將被刪除
##log.retention.hours=24*7
##partiton中buffer中,消息的條數(shù),達(dá)到閥值,將觸發(fā)flush到磁盤(pán).
log.flush.interval.messages=30000
#消息buffer的時(shí)間,達(dá)到閥值,將觸發(fā)flush到磁盤(pán).
log.flush.interval.ms=5000
##partition leader等待follower同步消息的最大時(shí)間,
##如果超時(shí),leader將follower移除同步列表
replica.lag.time.max.ms=10000
##消息的備份的個(gè)數(shù),默認(rèn)為1,通常使用在replication-cluster環(huán)境中
##kafka-cluster已經(jīng)具備自動(dòng)故障轉(zhuǎn)移能力(>0.8V)
num.replica.fetchers=1