[文档修改](master): 无消息丢失配置怎么实现

周日学习 2022年09月18日22:44:17
master
土豆兄弟 2 years ago
parent f7e798d7c6
commit ea784ed0d0

@ -417,6 +417,65 @@ kafka-consumer-groups.sh --bootstrap-server 172.16.26.183:9092 --describe --grou
- 消息批次RecordBatch里面包含若干条消息record)。 你可以认为消息批次和消息集合是等价的,消息和日志项是等价的。这样消息层次有两层:外层是消息批次(或消息集合);里层是消息(或日志项)。 - 消息批次RecordBatch里面包含若干条消息record)。 你可以认为消息批次和消息集合是等价的,消息和日志项是等价的。这样消息层次有两层:外层是消息批次(或消息集合);里层是消息(或日志项)。
Producer以recordbatch为单位发送消息对于V2版本一个batch中通常包含多条消息。在V2版本中在batch层面计算CRC值在V1版本中每条消息都要计算CRC值。 Producer以recordbatch为单位发送消息对于V2版本一个batch中通常包含多条消息。在V2版本中在batch层面计算CRC值在V1版本中每条消息都要计算CRC值。
### 2.3 无消息丢失配置怎么实现?
- 一句话概括Kafka 只对**“已提交”的消息committed message做有限度的持久化保证**。
- 第一个核心要素是 **“已提交的消息”**。什么是已提交的消息?当 Kafka 的若干个 Broker 成功地接收到一条消息并写入到日志文件后,它们会告诉生产者程序这条消息已成功提交。此时,这条消息在 Kafka 看来就正式变为“已提交”消息了。
- 那为什么是若干个 Broker 呢?这取决于你对“已提交”的定义。你可以选择只要有一个 Broker 成功保存该消息就算是已提交,也可以是令所有 Broker 都成功保存该消息才算是已提交。不论哪种情况Kafka 只对已提交的消息做持久化保证这件事情是不变的。
- 第二个核心要素就是 **“有限度的持久化保证”**
- 假如你的消息保存在 N 个 Kafka Broker 上,那么这个前提条件就是这 N 个 Broker 中**至少有 1 个存活**。只要这个条件成立Kafka 就能保证你的这条消息永远不会丢失。
- “消息丢失”案例
- 案例 1生产者程序丢失数据
- 目前 Kafka Producer 是异步发送消息的,也就是说如果你调用的是 producer.send(msg) 这个 API那么它通常会立即返回但此时你不能认为消息发送已成功完成。
- 这种发送方式有个有趣的名字叫“fire and forget”翻译一下就是“发射后不管”。它的意思是执行完一个操作后不去管它的结果是否成功。调用 producer.send(msg) 就属于典型的“fire and forget”
- 如果用这个方式,可能会有哪些因素导致消息没有发送成功呢?
- 其实原因有很多,例如**网络抖动,导致消息压根就没有发送到 Broker 端**;或者**消息本身不合格导致 Broker 拒绝接收**(比如消息太大了,超过了 Broker 的承受能力)
- 就像前面说过的Kafka 不认为消息是已提交的,因此也就没有 Kafka 丢失消息这一说了。
- 解决此问题的方法非常简单:
- Producer **永远要使用带有回调通知的发送 API**,也就是说不要使用 producer.send(msg),而要使用 producer.send(msg, callback)。
- (回调),它能准确地告诉你消息是否真的提交成功了。一旦出现消息提交失败的情况,你就可以有针对性地进行处理。
- 如果是因为那些瞬时错误,那么仅仅让 Producer 重试就可以了;如果是消息不合格造成的,那么可以调整消息格式后再次发送。
- 总之,**处理发送失败的责任在 Producer 端而非 Broker 端。**
- 案例 2消费者程序丢失数据
- Consumer 端丢失数据主要体现在 Consumer 端要消费的消息不见了。Consumer 程序有个“位移”的概念,表示的是这个 Consumer 当前消费到的 Topic 分区的位置。
- ![Consumer端的位移数据](pic/Consumer端的位移数据.png)
- 比如对于 Consumer A 而言,它当前的位移值就是 9Consumer B 的位移值是 11。
- 这里的“位移”类似于我们看书时使用的书签,它会标记我们当前阅读了多少页,下次翻书的时候我们能直接跳到书签页继续阅读。
- 正确使用书签有两个步骤:第一步是读书,第二步是更新书签页。**不能颠倒**
- 要对抗这种消息丢失,办法很简单:**维持先消费消息(阅读),再更新位移(书签)的顺序即可**。这样就能最大限度地保证消息不丢失。
- 当然,**这种处理方式可能带来的问题是消息的重复处理**,类似于同一页书被读了很多遍,但这不属于消息丢失的情形。
- 还存在一种比较隐蔽的消息丢失场景。
- 对于 Kafka 而言, Consumer 程序从 Kafka 获取到消息后开启了多个线程异步处理消息,而 Consumer 程序自动地向前更新位移。
假如其中某个线程运行失败了,它负责的消息没有被成功处理,但位移已经被更新了,因此这条消息对于 Consumer 而言实际上是丢失了。
- 这里的**关键在于 Consumer 自动提交位移**
- 这个问题的解决方案也很简单:
- 如果是多线程异步处理消费消息Consumer 程序不要开启自动提交位移,而是要应用程序**手动提交位移**。
- 单个 Consumer 程序使用多线程来消费消息说起来容易,写成代码却异常困难,因为你很难正确地处理位移的更新,也就是说避免无消费消息丢失很简单,但极易出现消息被消费了多次的情况。
- 最佳实践
- 不要使用 producer.send(msg),而要使用 producer.send(msg, callback)。记住,**一定要使用带有回调通知的 send 方法**。
- **设置 acks = all**。acks 是 Producer 的一个参数,代表了你对“已提交”消息的定义。如果设置成 all则表明所有副本 Broker 都要接收到消息,该消息才算是“已提交”。这是最高等级的“已提交”定义。
- **设置 retries 为一个较大的值**。这里的 retries 同样是 Producer 的参数,对应前面提到的 Producer 自动重试。当出现网络的瞬时抖动时,消息发送可能会失败,此时配置了 retries > 0 的 Producer 能够自动重试消息发送,避免消息丢失。
- **设置 unclean.leader.election.enable = false**。这是 Broker 端的参数,它控制的是哪些 Broker 有资格竞选分区的 Leader。如果一个 Broker 落后原先的 Leader 太多,那么它一旦成为新的 Leader必然会造成消息的丢失。
故一般都要将该参数设置成 false即不允许这种情况的发生。
- **设置 replication.factor >= 3**。这也是 Broker 端的参数。其实这里想表述的是,最好将消息多保存几份,毕竟目前防止消息丢失的主要机制就是冗余。
- **设置 min.insync.replicas > 1**。这依然是 Broker 端参数,控制的是消息至少要被写入到多少个副本才算是“已提交”。设置成大于 1 可以提升消息持久性。在实际环境中千万不要使用默认值 1。
- 确保 replication.factor > min.insync.replicas。如果两者相等那么只要有一个副本挂机整个分区就无法正常工作了。我们不仅要改善消息的持久性防止数据丢失还要在不降低可用性的基础上完成。
**推荐设置成 replication.factor = min.insync.replicas + 1**。
- 确保消息消费完成再提交。Consumer 端有个参数 **enable.auto.commit最好把它设置成 false**,并采用手动提交位移的方式。就像前面说的,这对于单 Consumer 多线程处理的场景而言是至关重要的。
- 补充
- 设置 acks = all。表明所有副本 Broker 都要接收到消息该消息才算是“已提交”。如果所有的Broker都要收到消息才能算作已提交会不会对系统的吞吐量影响很大另外这里的副本指的是不是仅仅是ISR?
- 碰到的实际场景影响还是很大的。acks=all时大部分的请求处理延时都花在了follower同步上。 是的acks=all表明所有ISR中的副本都要同步。
### 2.4 客户端都有哪些不常见但是很高级的功能?

Binary file not shown.

After

Width:  |  Height:  |  Size: 54 KiB

Loading…
Cancel
Save