Flink EOS--整合MySQL验证2PC

智码溯光者
• 阅读 1726

一、前言

假设当前Flink应用已实现EOS(即 Exactly-Once Semantics)语义,现在需要增加Flink处理数据持久化到MySQL,前提条件不能打破Flink EOS的生态。官方提供的flink-connector-jdbc并没有提供事务和checkpoint的相关操作,自定义sink需要考虑和CheckPoint复杂的配合。参考Flink EOS如何防止外部系统乱入,可自定义实现TwoPhaseCommitSinkFunction类,完成MySQL外部系统组件的完美嵌入。

本次模拟Flink消费Kafka数据并写入MySQL,通过自定义MySQL Sink验证Flink 2PC以及EOS的准确性。相应的系统及组件版本如下,Flink的部署方式为Standalone。

组件/系统版本
centOS7.5
Flink1.12.2
MySQL5.7
Kafka2.3.1
Zookeeper3.4.5
Hadoop2.6.0

二、验证

思路及猜测结果:

kafka发送:一共发送20条数据,每条数据末尾数字自增,方便观察效果。每条发送间隔为10秒,一共耗时200s。

flink处理:checkpoint时间价格为60s,重启延迟为10s,处理第10条数据的时候模拟发生bug,处理完第19条数据的时候,手动取消job,利用checkpoint恢复job。

猜测1:发生bug时,处理过的数据但未做checkpoint不能持久化到MySQL,只有做了checkpoint的数据才能持久化到MySQL。即checkpioint的提交和MySQL事务的最终提交是保持一致的。

猜测2:job重启会进行事务回滚,重新执行写入事务操作。

猜测3:job失败,利用checkpoint恢复job能保证数据恰好处理一次的精确语义。

验证猜测1

Flink EOS--整合MySQL验证2PC

Flink EOS--整合MySQL验证2PC

通过截图日志以及两图对比可知,checkPoint完成后回调了MySQL的commit操作,且尾数134之前的数据全部写入MySQL(即最后一次checkpoint之前的数据全部持久化成功),说明MySQL的事务是和checkpoint保持一致的。

验证猜测2

Flink EOS--整合MySQL验证2PC

Flink EOS--整合MySQL验证2PC

通过对比job重启前后的日志对比,发现135-137数据发生了事务回滚,并重新进行的写入操作。

验证猜测3

Flink EOS--整合MySQL验证2PC

Flink EOS--整合MySQL验证2PC

job未手动重启之前,可以看到kafka producer实际发送的数据和持久化MySQL的数据是不一致的,接下来就是验证,利用Flink的checkpoint恢复作业最终能达到精确一次消费的语义。

Flink EOS--整合MySQL验证2PC

找到最后一次checkpoint的路径,执行以下命令进行job恢复

bin/flink run -s hdfs://lsl001:8020/checkpoint/flink-checkpoint/ca7caa1b21052bb1dbb02d5533b93df4/chk-5 flink_study-1.0-SNAPSHOT.jar --detached

Flink EOS--整合MySQL验证2PC

job重启成功,从截图日志可看到,没有持久化成功的数据,重新执行了写入操作,最终通过checkpoint成功提交事务。MySQL查询结果如下图:

Flink EOS--整合MySQL验证2PC

三、总结

通过上述的测试流程,我们可以得到如下结论:

  1. Flink Job重启或者失败,事务都会回滚,并且都能最终保证数据的精确一次消费。
  2. Flink CheckPoin和两阶段提交时密切绑定的。
  3. 自定义MySQL sink实现TwoPhaseCommitSinkFunction类可完成MySQL系统友好的融入Flink EOS生态。

案例参考代码:flink_demo

点赞
收藏
评论区
推荐文章
blmius blmius
4年前
MySQL:[Err] 1292 - Incorrect datetime value: ‘0000-00-00 00:00:00‘ for column ‘CREATE_TIME‘ at row 1
文章目录问题用navicat导入数据时,报错:原因这是因为当前的MySQL不支持datetime为0的情况。解决修改sql\mode:sql\mode:SQLMode定义了MySQL应支持的SQL语法、数据校验等,这样可以更容易地在不同的环境中使用MySQL。全局s
美凌格栋栋酱 美凌格栋栋酱
7个月前
Oracle 分组与拼接字符串同时使用
SELECTT.,ROWNUMIDFROM(SELECTT.EMPLID,T.NAME,T.BU,T.REALDEPART,T.FORMATDATE,SUM(T.S0)S0,MAX(UPDATETIME)CREATETIME,LISTAGG(TOCHAR(
皕杰报表之UUID
​在我们用皕杰报表工具设计填报报表时,如何在新增行里自动增加id呢?能新增整数排序id吗?目前可以在新增行里自动增加id,但只能用uuid函数增加UUID编码,不能新增整数排序id。uuid函数说明:获取一个UUID,可以在填报表中用来创建数据ID语法:uuid()或uuid(sep)参数说明:sep布尔值,生成的uuid中是否包含分隔符'',缺省为
Wesley13 Wesley13
3年前
mysql设置时区
mysql设置时区mysql\_query("SETtime\_zone'8:00'")ordie('时区设置失败,请联系管理员!');中国在东8区所以加8方法二:selectcount(user\_id)asdevice,CONVERT\_TZ(FROM\_UNIXTIME(reg\_time),'08:00','0
Stella981 Stella981
3年前
Flink 1.11 与 Hive 批流一体数仓实践
导读:Flink从1.9.0开始提供与Hive集成的功能,随着几个版本的迭代,在最新的Flink1.11中,与Hive集成的功能进一步深化,并且开始尝试将流计算场景与Hive进行整合。本文主要分享在Flink1.11中对接Hive的新特性,以及如何利用Flink对Hive数仓进行实时化改造,从而实现批流
Stella981 Stella981
3年前
Apache Flink 结合 Kafka 构建端到端的 Exactly
文章目录:1.ApacheFlink应用程序中的ExactlyOnce语义2.Flink应用程序端到端的ExactlyOnce语义3.示例Flink应用程序启动预提交阶段4.在Flink中实现两阶段提交Operator5.总结ApacheFlink(https://www.os
为什么mysql不推荐使用雪花ID作为主键
作者:毛辰飞背景在mysql中设计表的时候,mysql官方推荐不要使用uuid或者不连续不重复的雪花id(long形且唯一),而是推荐连续自增的主键id,官方的推荐是auto_increment,那么为什么不建议采用uuid,使用uuid究