Kafka学习笔记(3)

Stella981
• 阅读 268

1. CAP理论

  1.1 Cosistency(一致性)

  通过某个节点的写操作结果对后面通过其他节点的读操作可见。

  如果更新数据后,并发访问的情况下可立即感知该更新,称为强一致性

  如果允许之后部分或全部感知不到该更新,称为弱一致性。

  若在之后的一段时间(通常该时间不是固定的)后,一定可以感知到该更新,称为最终一致性。

  1.2 Availability(高可用性)

  即是任何一个没有发生故障的节点必须在有限的时间内返回合理的结果(不论是正确的还是错误的)。

  1.3 Partition tolerance(分区容错性)

  部分节点宕机或者是无法与其他节点通信时,各分区间还可以保持分部式系统的功能,比如上海和北京两个网络分区,当上海分区光纤或其他原因导致网络不通时,北京上海两个分区之间不可通信,但是最起码要保证北京的分区中的分布式系统功能可用。

  1.4 CAP理论

  分布式系统中,一致性,可用性,分区容忍性最多只可同时满足两个,但是一般分区容错性都是需要保障的,因此很多时候都是在可用性和一致性之间做权衡。如下一幅图讲解了CP和AP的两种模式的具体表现形式:

Kafka学习笔记(3)

  首先看CP模式,N1和N2之间代表了网络通信,C表示客户端,X表示新写入的数据,Y表示旧数据,当C向N2发起请求时,由于N2与N1之间网络通信异常,会导致N2不能同步到N1中的x,在保证一致性的情况下,此时N2不会正常返回处理结果,要么是等待网络连接成功,将N1的Y获取过来,保证数据一致,要么系统出现错误,这样的情况是不能保证高可用的,但是保证了数据一致性。

  AP模式下,N1和N2之间代表了网络通信,C表示客户端,X表示新写入的数据,Y表示旧数据,当C向N2发起请求时,由于N2与N1之间网络通信异常,会导致N2不能同步到N1中的X,但是N2不会等待N1连接成功,或是返回错误信息,而是返回之前老的数据x,这样系统能够正常的运行,但是数据的一致性并没有保证,此时选择了系统的高可用方案。

  1.5 一致性的方案

1.5.1 Master-slave(主从模式)

  RDBMS的读写分离即为典型的Master-slave方案

  同步复制可保证强一只性,但是会行影响性能(因为Master必须要等待所有的salve都接收到到更新才能返回)

  异步复制提高可用性,但是会降低一致性,因为Master只需要自己写操作完成,就立即返回,同时向Slave进行复制,这期间可能会出现某个或多个Slave由于网络或其他原因没有更新到数据,造成数据不一致性。

1.5.2 WNR

  主要用于去中心化(P2P)的分布式系统中。DynamoDB与Cassandra即采用此方案,N代表副本数,W代表每次写操作要保证的最少写成功的副本数,R代表每次读至少读取的副本数,当W+R>N时,可保证每次读取的数据至少有一个副本具有最新的更新,多个写操作的顺序难以保证,可能导致多副本间的写操作顺序不一致,Dynamo通过向量时钟保证最终一致性。这里可以通过时间戳或者是自增主键之类的方式来保证过滤出读取的最新的数据。

1.5.3 Paxos及其变种

  Google的Chubby,Zookeeper的Zab,RAFT等

2. Kafka的数据复制(Replica)

  Kafka提供了Replica保证了数据一致性

  2.1 Replica

  当某个Topic的replication-factor为N切N大于1时,每个Partition都会有N个副本(Replica),Replica的个数小于等于Broker数,即对每个Partition而言每个Broker上只会有一个Replica,因此可用Broker ID表示Replica,所有Partition的所有Replica默认情况会均匀分布到所有Broker上,如图:

Kafka学习笔记(3)

  图中可以看到,Broker中存的是Topic2的Partition0和Topic2的Partition2的Replica,但是在Broker2中却存了Topic2的Partition1和Topic2的Partition0的Replica,所以默认的Partition都是分布在集群节点上的,replica也一样。这就可以保证到某个节点挂掉之后,其他的节点中保存的replica仍然可以向消费者推送或被拉取消息,保证消息不丢失。

  注意:

  假如当前我们搭建了三个Broker的集群,但是我此时指定4个Replica时,会出现org.apache.kafka.common.errors.InvalidReplicationFactorException: Replication factor: 4 larger than available brokers: 3异常,如图:

Kafka学习笔记(3)

 2.2 Data Replication(数据复制)要解决的问题

2.2.1 如何Propagate(备份)消息

  如下图:

Kafka学习笔记(3)

  当producer想leader节点发送消息时,其余follower节点(个人理解跟slave类似)将会如其他mq的consumer一样去从主节点的topic中将数据拉取或被推送到自身节点中。这样当leader节点挂掉之后,consumer访问集群时,仍然可以从其他的follower中获取到最新数据,防止了数据丢失。

2.2.2 何时Commit

  ISR: Leader会维护一个与其基本保持同步的Replica列表,该列表称为ISR(in-sync Replica),如果一个Follower比Leader落后太多,或者超过一定时间未发起数据复制请求,则Leader将其从ISR中移除,当ISR中所有Replica都向Leader发送ACK时,Leader即Commit(告诉Producer消息发送成功)。

  Commit策略

1. 在Server中配置

  replica.lag.time.max.ms:默认100000,最大未发起数据复制请求的时间。

  replica.lag.max.messages:最大落后消息数,根据自身需要配置

  2. Topic配置

  min.insync.replicas=1: ISR列表最小个数,默认1,只有当request.required.acks为-1时才生效,如果ISR中的副本数少于min.insync.replicas配置的数量时,客户端会返回异常:org.apache.kafka.common.errors.NotEnoughReplicasExceptoin: Messages are rejected since there are fewer in-sync replicas than required。

  3. Produce配置

  request.required.acks=1,默认为1,roducer发送数据到leader,leader写本地日志成功,返回客户端成功;此时ISR中的副本还没有来得及拉取该消息,leader就宕机了,那么此次发送的消息就会丢失,当为-1时,当producer设置request.required.acks为-1时,min.insync.replicas指定replicas的最小数目(必须确认每一个repica的写数据都是成功的),如果这个数目没有达到,producer会产生异常。

2.2.3 如何处理Replica恢复

  如图:

Kafka学习笔记(3)

  1. 可以看到SR={A,B,C},Leader(A)节点中存在m1,m2,m3三条消息,F(B)存在m1,m2两条消息,f(c)只存在m1一消息,所以这里只会提交m1这条消息,因为m2这条消息还没有在ISR中完成复制。它只会提交三个ISR中都存在的消息。

  2. 当L(A)在将消息m2复制到B,C之后挂掉,此时ISR中只有{B,C},B被选举成为新的主节点,当m2,m1都存在于B,C节点中时,B将会提交m1,m2两条消息,不会提交m3消息。

  3. 此时消息将都会发送到B节点上,C节点同步了B节点中的新发的消息m4,m5之后,将会提交m4,m5.

  5.此时A节点连接集群成功或重启,可以使用了,它会从B节点中同步从m1,到m5的消息,直到它的消息与B和C中的一致为止,此时的Replica将会变成ISR={A,B,C},完成了Replica的恢复。这里我们发现m3并没有存在了,这里并不是丢失了,只是当没有主节点提交m3这条消息时,它将会自动反馈到Producer,Producer会重试,或做其他处理,当重试成功后可能m3消息将会append到m5的后面,所以consumer消费消息时,我们保证的顺序性不是producer发送消息的顺序,而是commit时的顺序。

2.2.4 如何处理Replica全部宕机

  当ISR中的Replica全部宕机时,可以通过如下方式处理:

  1. 等待ISR中任一Replica恢复,并选它为Leader。

  缺点:等待时间较长,降低可用性(因为不能使用所有集群节点),因此或ISR中的所有Replica都无法恢复或者数据丢失,则该Partition将永不可用。

  2. 选择第一个恢复的Replica为新的Leader,无论它是否在ISR中。

  缺点:并未包含所有已被之前Leader Commit过的消息(因为它不在之前的ISR中),因此会造成数据丢失,但是它提高了可用节点的范围,可用性比较高。

点赞
收藏
评论区
推荐文章
blmius blmius
2年前
MySQL:[Err] 1292 - Incorrect datetime value: ‘0000-00-00 00:00:00‘ for column ‘CREATE_TIME‘ at row 1
文章目录问题用navicat导入数据时,报错:原因这是因为当前的MySQL不支持datetime为0的情况。解决修改sql\mode:sql\mode:SQLMode定义了MySQL应支持的SQL语法、数据校验等,这样可以更容易地在不同的环境中使用MySQL。全局s
Wesley13 Wesley13
2年前
java将前端的json数组字符串转换为列表
记录下在前端通过ajax提交了一个json数组的字符串,在后端如何转换为列表。前端数据转化与请求varcontracts{id:'1',name:'yanggb合同1'},{id:'2',name:'yanggb合同2'},{id:'3',name:'yang
Jacquelyn38 Jacquelyn38
3年前
2020年前端实用代码段,为你的工作保驾护航
有空的时候,自己总结了几个代码段,在开发中也经常使用,谢谢。1、使用解构获取json数据let jsonData  id: 1,status: "OK",data: 'a', 'b';let  id, status, data: number   jsonData;console.log(id, status, number )
皕杰报表之UUID
​在我们用皕杰报表工具设计填报报表时,如何在新增行里自动增加id呢?能新增整数排序id吗?目前可以在新增行里自动增加id,但只能用uuid函数增加UUID编码,不能新增整数排序id。uuid函数说明:获取一个UUID,可以在填报表中用来创建数据ID语法:uuid()或uuid(sep)参数说明:sep布尔值,生成的uuid中是否包含分隔符'',缺省为
Stella981 Stella981
2年前
KVM调整cpu和内存
一.修改kvm虚拟机的配置1、virsheditcentos7找到“memory”和“vcpu”标签,将<namecentos7</name<uuid2220a6d1a36a4fbb8523e078b3dfe795</uuid
Wesley13 Wesley13
2年前
mysql设置时区
mysql设置时区mysql\_query("SETtime\_zone'8:00'")ordie('时区设置失败,请联系管理员!');中国在东8区所以加8方法二:selectcount(user\_id)asdevice,CONVERT\_TZ(FROM\_UNIXTIME(reg\_time),'08:00','0
Wesley13 Wesley13
2年前
00:Java简单了解
浅谈Java之概述Java是SUN(StanfordUniversityNetwork),斯坦福大学网络公司)1995年推出的一门高级编程语言。Java是一种面向Internet的编程语言。随着Java技术在web方面的不断成熟,已经成为Web应用程序的首选开发语言。Java是简单易学,完全面向对象,安全可靠,与平台无关的编程语言。
Stella981 Stella981
2年前
Django中Admin中的一些参数配置
设置在列表中显示的字段,id为django模型默认的主键list_display('id','name','sex','profession','email','qq','phone','status','create_time')设置在列表可编辑字段list_editable
Wesley13 Wesley13
2年前
MySQL部分从库上面因为大量的临时表tmp_table造成慢查询
背景描述Time:20190124T00:08:14.70572408:00User@Host:@Id:Schema:sentrymetaLast_errno:0Killed:0Query_time:0.315758Lock_
Python进阶者 Python进阶者
6个月前
Excel中这日期老是出来00:00:00,怎么用Pandas把这个去除
大家好,我是皮皮。一、前言前几天在Python白银交流群【上海新年人】问了一个Pandas数据筛选的问题。问题如下:这日期老是出来00:00:00,怎么把这个去除。二、实现过程后来【论草莓如何成为冻干莓】给了一个思路和代码如下:pd.toexcel之前把这