`
拓子轩
  • 浏览: 204464 次
  • 性别: Icon_minigender_1
  • 来自: 深圳
社区版块
存档分类
最新评论

Kafka的Producer主要参数

阅读更多

 

1 bootstrap.severs

 

该参数指定一组host:post对,用于创建向Kafka broker服务器的连接,比如k1:9092,k2:9092,k3:9092。如果Kafka集群中机器数很多,那么只需要指定部分broker即可,不需要列出所有的机器。因为不管指定几台机器,producer都会通过该参数找到并发现集群中所有的broker。为该参数指定多台机器只是为了故障转移使用。这样即使某一台broker挂掉了,producer重启后依然可以通过该参数指定的其他broker连入Kafka集群。

 

另外,如果broker端没有显示配置listeners使用的IP地址,那么最好将该参数也配置成主机名,而不是IP地址。因为Kafka内部使用的就是FQDNFully Qualified Domain Name)。

 

2 key.serializer

 

被发送到broker端的任何消息的格式都必须是字节数组,因此消息的各个组件必须首先做序列化,然后才能发送到broker。该参数就是为消息的key做序列化用的。这个参数指定的是实现了org.apache.kafka.common.serialization.Serializer接口的全限定名称。Kafka为大部分的初始类型(primitive type)默认提供了现成的序列化器。用户可以自定义序列化器,只要实现Serializer接口即可。

 

需要注意的是,即使producer程序在发送消息时不指定key,这个参数也是必须要设置的,否则程序会抛出ConfigException异常,提示“key.serializer”参数无默认值,必须要配置。

 

3 value.serializer

 

key.serializer类似,只是它被用来对消息体(即消息的value)部分做序列化,将消息value部分转换成字节数组。

 

注意,这两个参数都必须是全限定名,只使用单独的类名是不行的。

 

4 acks

 

acks参数用于控制producer生产消息的持久性(durability)。对于producer而言,Kafka在乎的是“已提交”消息的持久性。一旦消息被成功提交,那么只要有任何一个保存了该消息的副本“存活”,这条消息就会被视为“不会丢失的”。

 

具体来说,当producer发送一条消息给Kafka集群时,这条消息会被发送到指定topic分区leader所在的broker上,producer等待从该leader broker返回消息的写入结果(当然并不是无限等待,是有超时时间的)以确定消息被成功提交。这一切完成后producer可以继续发送新的消息。Kafka能够保证的是consumer永远不会读取到尚未提交完成的消息。

 

acks指定了在给producer发送响应前,leader broker必须要确保已成功写入该消息的副本数。当前acks3个取值:01all

 

acks=0:设置成0表示producer完全不理睬leader broker端的处理结果。此时,producer发送消息后立即开启下一条消息的发送,根本不等待leader broker端返回结果。由于不接收发送结果,因此在这种情况下producer.send的回调也就完全失去了作用,即用户无法通过回调机制感知任何发送过程中的失败,所以acks=0producer并不保证消息会被发送成功。但凡是有利有弊,由于不需要等待响应结果,通常这种设置下producer的吞吐量是最高的。

 

acks=all或者-1:表示当发送消息时,leader broker不仅会将消息写入本地日志,同时还会等待ISR中所有其他副本都成功写入它们各自的本地日志后,才发送响应结果给producer。显然当设置acks=all时,只要ISR中至少有一个副本是处于“存活”状态的,那么这条消息就肯定不会丢失,因而可以达到很高的消息持久性,但通常这种设置下producer的吞吐量也是最低的。

 

acks=1:是0all折中的方案,也是默认的参数值。producer发送消息后leader broker仅将该消息写入本地日志,然后便发送响应结果给producer,而无须等待ISR中其他副本写入该消息。那么此时只要该leader broker一直存活,Kafka就能保证这条消息不丢失。这实际上是一种折中方案,既可以达到适当的消息持久性,同时也保证了producer端的吞吐量。

 

 

 

acks参数取值说明:

 

acks

producer吞吐量

消息持久性

使用场景

0

最高

最差

<!--[if !supportLists]-->1.        <!--[endif]-->完全不关心消息是否发送成功

<!--[if !supportLists]-->2.        <!--[endif]-->允许消息丢失(比如统计服务器日志等)

1

适中

适中

一般场景即可

all-1

最差

最高

不能容忍消息丢失

 

在程序中设置方式如下:

 

props.put("acks", "-1");

// 或者

props.put(ProducerConfig.ACKS_CONFIG, "-1");

 

 

 

5  buffer.memory

 

该参数指定了producer端用于缓存消息的缓冲区大小,单位是字节,默认值是33554432,即32MB。由于采用了异步发送消息的设计架构,Java版本producer启动时会首先创建一块内存缓冲区用于保存待发送的消息,然后由另一个专属线程负责从缓冲区中读取消息执行真正的发送。这部分内存空间的大小即是由buffer.memory参数指定的。若producer向缓冲区写消息的速度超过了专属I/O线程发送消息的速度,那么必然造成该缓冲区空间的不断增大。此时producer会停止手头的工作等待I/O线程追上来,若一段时间之后I/O线程还是无法追上producer的进度,那么producer就会抛出异常并期望用户介入进行处理。

 

虽说producer在工作过程中会用到很多部分的内存,但我们几乎可以认为该参数指定的内存大小就是producer程序使用的内存大小。若producer程序要给很多分区发送消息,那么就需要仔细地设置这个参数以防止过小的内存缓冲区降低了producer程序整体的吞吐量。

 

在程序中设置方式如下:

 

props.put("buffer.memory", 33554432);

// 或者

props.put(ProducerConfig.BUFFER_MEMORY_CONFIG, 33554432);

 

6  compression.type

 

compression.type参数设置producer端是否压缩消息,默认值是none,即不压缩消息。Kafkaproducer端引入压缩后可以显著地降低网络I/O传输开销从而提升整体的吞吐量,但也会增加producer端机器的CPU开销。另外,如果broker端的压缩参数设置的与producer不同,broker端在写入消息时也会额外使用CPU资源对消息进行对应的解压缩-重压缩操作。

 

目前Kafka支持3中压缩算法:GZIPSnappyLZ4。根据实际使用经验(1.0.0版本)来看producer结合LZ4的性能是最好的。

 

在程序中设置方式如下:

 

props.put("compression.type","lz4");

// 或者

props.put(ProducerConfig.COMPRESSION_TYPE _CONFIG, "lz4");

 

 

 

7  retries

 

该参数表示进行重试的次数,默认值为0,表示不进行重试。在实际使用过程中,设置重试可以很好地应对哪些瞬时错误,因此推荐用户设置该参数为一个大于0的值。只不过在考虑retries的设置时,有两点需要着重注意。

 

  •     重试可能造成消息的重复发送

 比如由于瞬时的网络抖动使得broker端已成功写入消息但没有成功发送响应给producer,因此producer会认为消息发送失败,从而开启重试机制。为了应对这一风险,Kafka要求用户在consumer端必须执行去重处理。另0.11.0.0版本开始支持“精确一次”处理语义。

 

  •     重试可能造成消息乱序

 当前producer会将多个消息发送请求(默认是5个)缓存再内存中,如果由于某种原因发生了消息发送重试,就可能造成消息流的乱序。为了避免乱序发生,Java版本producer提供了max.in.flight.request.per.connection参数。一旦用户将此参数设置成1producer将确保某一时刻只能发送一个请求。

 

另外,producer两次重试之间会停顿一段时间,以防止频繁地重试对系统带来冲击。这段时间是可以配置的,由参数retry.backoff.ms指定,默认是100毫秒。由于leader“换届选举”是最常见的瞬时错误,笔者推荐用户通过测试来计算平均leader选举时间并根据该时间来设定retriesretry.backoff.ms的值

 

在程序中设置方式如下:

 

props.put("retries",100);

// 或者

props.put(ProducerConfig.RETRIES _CONFIG, 100);

 

8  batch.size

 

batch.sizeproducer最重要的参数之一,它对于调优producer吞吐量和延时性能指标都有着非常重要的作用。producer会将发往同一分区的多条消息封装进一个batch中。当batch满了的时候,producer会发送batch中的所有消息。不过,producer并不总是等待batch满了才发送消息,很有可能当batch还有很多空闲空间时producer就发送该batch

 

通常来说,一个小的batch中包含的消息数很少,因而一次发送请求能够写入的消息数也很少,所以producer的吞吐量会很低;但若一个batch非常之巨大,那么会给内存使用带来极大的压力,因为不管是否能够填满,producer都会为该batch分配固定大小的内存。因此batch.size参数的设置其实是一种时间与空间权衡的体现。

 

batch.size参数默认值是16384,即16KB。这其实是一个非常保守的数字。在实际使用过程中合理地增加该参数值,通常都会发现producer的吞吐量得到了相应的增加。

 

在程序中设置方式如下:

 

props.put("batch.size",16384);

// 或者

props.put(ProducerConfig.BATCH_SIZE _CONFIG, 16384);

 

9  inger.ms

 

linger.ms参数就是控制消息发送延时行为的。该参数默认值是0,表示消息需要被立即发送,无须关心batch是否被填满,大多数情况下这是合理的,毕竟我们总是希望消息被尽可能快地发送。不过这样做会拉低producer吞吐量,毕竟producer发送的每次请求中包含的消息数越多,producer就越能将发送请求的开销摊薄到更多的消息上,从而提升吞吐量。

 

在程序中设置方式如下:

 

props.put("linger.ms",100);

// 或者

props.put(ProducerConfig.LINGER_MS _CONFIG, 100);

 

10  max.request.size

 

该参数用于控制producer发送请求的大小。实际上该参数控制的是producer端能够发送的最大消息的大小。由于请求有一些头部数据结构,因此包含一条消息的请求大小要比消息本身大。不过姑且把它当做请求的最大尺寸是安全的。如果producer要发送尺寸很大的消息,那么这个参数就是要被设置的。默认的1048576字节大小了,通常无法满足企业级消息的大小要求。

 

在程序中设置方式如下:

 

props.put("max.request.size",10485760);

// 或者

props.put(ProducerConfig.MAX_REQUEST_SIZE _CONFIG, 10485760);

 

11 request.timeout.ms

 

producer发送请求给broker后,broker需要在规定的时间范围内将处理结果返还给producer。这段时间便由该参数控制的,默认是30秒。这就是说,如果broker30秒内都没有给producer发送响应,那么producer就会认为该请求超时了,并在回调函数中显示地抛出TimeoutException异常交由用户处理。

 

默认的30秒对于一般的情况而言是足够的,但如果producer发送的负载很大,超时的情况就很容易碰到,此时就应该适当调整该参数值。

 

在程序中设置方式如下:

 

props.put("request.timeout.ms",60000);

// 或者

props.put(ProducerConfig.MAX_REQUEST_TIMEOUT_MS_CONFIG, 60000);

 

 

 

 

分享到:
评论

相关推荐

    kafka中文文档producer配置参数

    NULL 博文链接:https://bewithme.iteye.com/blog/2395262

    yongliangcode#myArticle#Kafka6# Producer重试参数retries设置取舍1

    title: Kafka6# Producer重试参数retries设置取舍retries参数说明参数的设置通常是一种取舍,看下retries参数在版本0.11

    kafka 3554 producer 性能调优工具编译包

    kafka的3554版本中的kafka-producer-perf-test.sh增添了 --num-thread --value-bound 两个参数,并且可以打印print-metrics 下载本资源后,读introduction.txt文件。 没有积分的同学,可以访问 ...

    kafka-producer:卡夫卡制片人

    使用方式kafka-producer使用者,需要通过KafkaProducerBuilder去构建一个KafkaProducer实力,使用方式和Guava的Cache非常相似,指定好参数进行构建(关于参数,请参考"KafkaProducerBuilder参数说明")。为了保证...

    kafka_2.9.2-0.8.2.1.tgz

    produce启动的时候参数使用的是kafka的端口而consumer启动的时候使用的是zookeeper的端口; 单机连通性能测试 运行producer bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test 运行...

    对python操作kafka写入json数据的简单demo分享

    如下所示: ... 注意事项:要写入json数据需加上value_serializer参数,如下代码 ''' producer = KafkaProducer( value_serializer=lambda v: json.dumps(v).encode('utf-8'), bootstrap_servers=['192.168

    学习kafa的笔记,可以看看目录选择下载

    11. producer重要参数详细解析 12. consumer的基本api开发模板代码 13. consumer的高级api特性—assign订阅—指定位移消费 14. consumer的重点参数解析 15. 手动位移提交消费者偏移量(调用kafka api) 16. 其他...

    快速学习-Kafka API

    Kafka 的 Producer 发送消息采用的是异步发送的方式。在消息发送的过程中,涉及到了两个线程——main 线程和 Sender 线程,以及一个线程共享变量——RecordAccumulator。main 线程将消息发送给 RecordAccumulator,...

    kafka-consumer-producer:这是一个Kafka Spring Boot应用程序,可监听一个主题并将其写入另一个主题

    消费者生产者 这是一个监听的Kafka Spring... kafka-console-producer.sh --broker-list localhost:9092 --topic事件输入 样本数据 {“ bookId”:1,“ bookName”:“ Kafka”,“ bookAuthor”:“ Sameer”,“ is

    14-幂等生产者和事务生产者是一回事吗.pdf

    在Kafka中,Producer默认...在0.11之后,指定Producer幂等性的方法很简单,仅需要设置一个参数即可,即 props.put(“enable.idempotence”, ture),或 props.put(ProducerConfig.ENABLE_IDEMPOTENCE_CONFIG, true)。

    Kafka 笔记

    文章目录Kafka架构名次解释Producer(生产者)命令使用脚本常用参数举例分区策略发送返回值幂等性Consumer(消费者)命令使用脚本常用参数举例分配策略Topic(主题)命令使用脚本常用参数举例Kafka高读写 ...

    kafka-samples

    ##在example.producer 包中运行SampleProducer; 将事件数作为参数传递 ##获取消息: ./bin/kafka-console-consumer.sh --zookeeper localhost:2181/kafka --topic page_visits --from-beginn

    kafka-spring:kafa spring插件

    com.gewara.kafka.producer.KafkaProducerTemplate:发送模板类,用于发送kafka信息 com.gewara.kafka.KafkaConsumerConnectionFactory:消费端连接配置,现支持配置zk相关的地址,自动提交offset的间隔时间 ...

    kafdrop:Kafka Web UI

    Kafdrop – Kafka Web UI Kafdrop是一个Web UI,用于查看Kafka主题和浏览消费者组。 该工具显示诸如代理,主题,分区,使用者之类的信息,并允许您查看消息。 该项目是Kafdrop 2.x的重新启动,它被踢到JDK 11 +,...

    TopicCounter

    Netty 应用程序验证后将捕获的数据转发给 Queue Producer 队列生产者与队列后端(Apache Kafka)对话并发布消息 队列消费者不断监听指定为 cli arg 的主题 队列消费者获取消息 Queue Consume 调用 TopicCounter 来...

    特殊的傻笑

    producer_server.py data_stream.py kafka_server.pyQ1。 更改SparkSession属性参数的值如何影响数据的吞吐量和延迟? 更改已处理的行数(processedRowsPerSecond / inputRowsPerSecond)对数据的吞吐量和延迟有...

Global site tag (gtag.js) - Google Analytics