大家好,又见面了,我是你们的朋友全栈君。如果您正在找激活码,请点击查看最新教程,关注关注公众号 “全栈程序员社区” 获取激活教程,可能之前旧版本教程已经失效.最新Idea2022.1教程亲测有效,一键激活。
Jetbrains全系列IDE稳定放心使用
1. 简介
Databus是一个低延迟、可靠的、支持事务的、保持一致性的数据变更抓取系统。由LinkedIn于2013年开源。Databus通过挖掘数据库日志的方式,将数据库变更实时、可靠的从数据库拉取出来,业务可以通过定制化client实时获取变更并进行其他业务逻辑。
Databus有以下特点:
- 数据源和消费者之间的隔离。
- 数据传输能保证顺序性和至少一次交付的高可用性。
- 从变化流的任意时间点进行消费,包括通过bootstrap获取所有数据。
- 分区消费
- 源一致性保存,消费不成功会一直消费直到消费成功
2. 功能&特性
- 来源独立:Databus支持多种数据来源的变更抓取,包括Oracle和MySQL。
- 可扩展、高度可用:Databus能扩展到支持数千消费者和事务数据来源,同时保持高度可用性。
- 事务按序提交:Databus能保持来源数据库中的事务完整性,并按照事务分组和来源的提交顺寻交付变更事件。
- 低延迟、支持多种订阅机制:数据源变更完成后,Databus能在毫秒级内将事务提交给消费者。同时,消费者使用Databus中的服务器端过滤功能,可以只获取自己需要的特定数据。
- 无限回溯:对消费者支持无限回溯能力,例如当消费者需要产生数据的完整拷贝时,它不会对数据库产生任何额外负担。当消费者的数据大大落后于来源数据库时,也可以使用该功能。
3. 使用场景举例
BUSSINESS1 和 BUSSINESS2 是两个不同的业务逻辑,他们的变更需要同时写入到 DB 和 CACHE ,那么当他们同时修改同一个数据的时候是否能保证数据的一致性呢?可以发现如果按照下图标明的顺序进行操作并不能保证数据的一致性!
还有一个问题是变更完DB之后,更新CACHE失败怎么办?如果忽略的话,会造成后续读取到CACHE中旧的数据,如果重试的话,业务代码会写得更加复杂。针对这些场景,如果没有一个强一致协议是很难解决掉的。如果要业务逻辑去实现这些晦涩的一致性协议,却又是不现实的。
现在,有了Databus,上面提到的这些一致性问题就都没有了,并且那些冗长的双写逻辑也可以去掉了,如下图所示:
4. 系统整体架构与主要组件
4.1 系统整体架构
上图中介绍了Databus系统的构成,包括Relays、bootstrap服务和Client lib等。Bootstrap服务中包括Bootstrap Producer和Bootstrap Server。快速变化的消费者直接从Relay中取事件。如果一个消费者的数据更新大幅落后,它要的数据就不在Relay的日志中,而是需要请求Bootstrap服务,返回的将会是自消费者上次处理变更之后的所有数据变更快照。
- Source Databases:MySQL以及Oracle数据源
- Relays:负责抓取和存储数据库变更,全内存存储,也可配置使用mmap内存映射文件方式
- Schema Registry:数据库数据类型到Databus数据类型的一个转换表
- Bootstrap Service:一个特殊的客户端,功能和Relays类似,负责存储数据库变更,主要是磁盘存储
- Application:数据库变更消费逻辑,从Relay中拉取变更,并消费变更
- Client Lib:提供挑选关注变更的API给消费逻辑
- Consumer Code:变更消费逻辑,可以是自身消费或者再将变更发送至下游服务
4.2 主要组件及功能
上图系统整体架构图画的比较简略,下载源码观察项目结构后不难发现databus的主要由以下四个组件构成:
- Databus Relay:
- 从源数据库中的Databus源中读取变化的行并序列化为Databus变化事件保存到内存缓冲区中。
- 监听Databus客户端的请求(包括引导程序的请求)并传输Databus数据变化事件。
- Databus Client:
- 在Relay上检查新的数据变化事件和处理特定的业务逻辑的回调。
- 如果它们在relay后面落下太远,到引导程序服务运行一个追溯查询。
- 单独的客户端可以处理全部的Databus流,它们也可以作为集群的一部分而每个客户端处理一部分流。
- Databus Bootstrap Producer:
- 只是一个特殊的客户端。
- 检查Relay上的新的数据变化事件。
- 保存数据变化事件到Mysql数据库,Mysql数据库用于引导程序和为了客户端追溯数据。
- Databus Bootstrap Server:
- 监听来自Databus客户端的请求并为了引导和追溯返回一个超长的回溯的数据变化事件。
5. Databus Relay和Databus Client详细分析
5.1 Databus Relay
5.1.1 架构与组件功能
-
Databus Event Producer(DBEP):定期从数据库中查询变更,如果检测到变更,它将读取数据库中的所有已更改的行,并将其转换为Avro记录。因为数据库数据类型和Databus数据类型不一致,因此需要 Schema Registry 做转换。
-
SCN(System Change Number):系统改变号,是数据库中非常重要的一个数据结构。SCN用以标识数据库在某个确切时刻提交的版本。在事务提交时,它被赋予一个唯一的标识事务的SCN。
-
Event Buffers:按照SCN的顺序存储databus事件,buffer可以是纯内存的,也可以是mmap到文件系统的。每个buffer在内存中还有一个对应的SCN Index和一个MaxSCN reader/writer,SCN Index可以加快查询指定事件的速度。
-
Request Processor:通过监听Netty的channel,实现收发client的请求。
-
MaxSCN Reader/Writer:用于跟踪DBEP的处理进度;Reader在Databus启动的时候会读取存储的文件上一次DBEP处理的位置,当Databus从DBEP中读取变更存储到Event Buffers时,Writer就会最后一个SCN写入到文件中存储,这样就能保证下次启动可以从正确的位置读取数据库变更。
-
JMX(Java Management Extensions):支持标准的Jetty容器,databus提供了多个Mbean来监控relay
- ContainerStatsMBean
- DbusEventsTotalStatsMBean
- DbusEventsStatisticsCollectorMBean
-
RESTFul Interface:Realy提供了相关http接口供外部调用,Client与Relay建立http长连接,并从Relay拉取Event。
5.1.2 源码分析
-
以源码例子中PersonRelayServer的主类启动为起点,大致的启动流程如下:
-
PersonRelayServer主方法 -> new DatabusRelayMain实例 -> 调用initProducers方法初始化生产者->根据配置调用addOneProducer增加生产者->new DbusEventBufferAppendable获得Event Buffer->new EventProducerServiceProvider实例->调用createProducer获得OpenReplicatorEventProducer->OpenReplicatorEventProducer中包含
EventProducerThread->启动线程开始获取Event
5.2 Databus Client
-
Relay Puller:负责从relay拉取数据,具体工作有挑选relay,请求source,请求Register,校验schema,设置dispatcher等。
-
Dispatcher:从event buffers中读取事件,调用消费逻辑的回调,主要职责有:
- 判断回调是否正确,回调失败后会进行重试,重试次数超限后抛出异常
- 监控错误和超时
- 持久化checkpoint
-
Checkpoint persistence Provider:checkpoint是消费者消费变更记录点的位置,负责将checkpoint持久化到本地,保证下次启动后可以从正常的位置pull event。
-
Event Callback:调用消费者自定义业务逻辑代码。
-
Bootstrap Puller:负责从Bootstrap servers拉取数据,功能类似Relay Puller。
6. Databus for Mysql实践
6.1 相关解释
-
实现原理:通过解析mysql的binlog日志来获取变更事件,解析过程利用Java开源工具OpenReplicator,Open Replicator 首先连接到MySQL(就像一个普通的MySQL Slave一样),然后接收和分析binlog,最终将分析得出的binlog events以回调的方式通知应用,所有的Event实现了BinlogEventV4接口。
-
binlog 格式:Databus设计为针对Row格式日志进行解析
- Statement:基于SQL语句的复制(statement-based replication,SBR)
- Row:基于行的复制(row-based replication,RBR)
- Mixed:混合模式复制(mixed-based replication,MBR)
-
SCN的确定:64bits组成,高32位表示binlog的文件序号,低32位代表event在binlog文件的offset,例如在 mysql-bin.000001文件中 offset为 4的scn表示为(1 << 32) | 4 = 4294967300
6.2 数据库环境配置
-
安装mysql数据库,本次使用mysql-5.5.56版本。
-
数据库是否开启binlog,配置数据库binlog_format=ROW, binlog_checksum=none
6.3 Demo配置与运行
6.3.1 下载源码
-
Databus官网下载源码,下载源码:git clone https://github.com/linkedin/databus/
- database:数据库模拟相关的脚本和工具
- databus2-example-bst-producer-pkg:bootstrap producer的属性配置文件夹,包括bootstrap producer和log4j属性文件,build脚本以及bootstrap producer的启动和停止脚本。
- databus2-example-client-pkg:client的属性配置文件夹,包括各种属性文件和启动和停止脚本。
- databus2-example-client:client源代码,包含启动主类和消费者代码逻辑。
- databus2-example-relay-pkg:relay的属性配置文件夹,包含监控的表的source信息和Avro schema。
- databus2-example-relay:relay的启动主类。
- schemas_registry:存放表的avsc文件。
6.3.2 Relay端的操作
-
配置Relay属性文件:databus2-example-relay-pkg/conf/relay-or-person.properties的内容如下配置,包括端口号,buffer存储策略,maxScn存放地址等信息:
databus.relay.container.httpPort=11125 databus.relay.container.jmx.rmiEnabled=false databus.relay.eventBuffer.allocationPolicy=DIRECT_MEMORY databus.relay.eventBuffer.queuePolicy=BLOCK_ON_WRITE databus.relay.schemaRegistry.type=FILE_SYSTEM databus.relay.eventBuffer.maxSize=1024000000 databus.relay.eventBuffer.readBufferSize=10240000 databus.relay.eventBuffer.scnIndexSize=10240000 databus.client.connectionDefaults.pullerRetries.initSleep=1 databus.client.checkpointPersistence.fileSystem.rootDirectory=./personclient-checkpoints databus.client.checkpointPersistence.clearBeforeUse=false databus.client.connectionDefaults.enablePullerMessageQueueLogging=true
-
配置被监控表的source信息:databus2-example-relay-pkg/conf/sources-or-person.json的内容如下配置,其中
URI format:mysql://username/password@mysql_host[:mysql_port]/mysql_serverid/binlog_prefix,
注意%2F为转义字符,用户名为root,数据库密码为123。
{ "name" : "person", "id" : 1, "uri" : "mysql://root%2F123@localhost:3306/1/mysql-bin", "slowSourceQueryThreshold" : 2000, "sources" : [ { "id" : 40, "name" : "com.linkedin.events.example.or_test.Person", "uri": "or_test.person", "partitionFunction" : "constant:1" } ] }
databus2-example-relay-pkg/schemas_registry/下定义person的Avro schema文件
com.linkedin.events.example.or_test.Person.1.avsc,其中1表示版本(Databus目前没有针对mysql提供生成Avro schema文件的工具,所以只能手工编写)具体内容如下所示:{ "name" : "Person_V1", "doc" : "Auto-generated Avro schema for sy$person. Generated at Dec 04, 2012 05:07:05 PM PST", "type" : "record", "meta" : "dbFieldName=person;pk=id;", "namespace" : "com.linkedin.events.example.or_test", "fields" : [ { "name" : "id", "type" : [ "long", "null" ], "meta" : "dbFieldName=ID;dbFieldPosition=0;" }, { "name" : "firstName", "type" : [ "string", "null" ], "meta" : "dbFieldName=FIRST_NAME;dbFieldPosition=1;" }, { "name" : "lastName", "type" : [ "string", "null" ], "meta" : "dbFieldName=LAST_NAME;dbFieldPosition=2;" }, { "name" : "birthDate", "type" : [ "long", "null" ], "meta" : "dbFieldName=BIRTH_DATE;dbFieldPosition=3;" }, { "name" : "deleted", "type" : [ "string", "null" ], "meta" : "dbFieldName=DELETED;dbFieldPosition=4;" } ] }
注册Avro schema到index.schemas_registry文件,
databus2-example-relay-pkg/schemas_registry/index.schemas_registry文件中添加行
com.linkedin.events.example.or_test.Person.1.avsc ,每定义一个Avro schema都需要添加进去,relay运行时会到此文件中查找表对应的定义的Avro schema。
6.3.3 Client端的操作
-
配置Client属性文件:databus2-example-client-pkg/conf/client-person.properties的内容如下配置,包括端口号,buffer存储策略,checkpoint持久化等信息:
databus.relay.container.httpPort=11125 databus.relay.container.jmx.rmiEnabled=false databus.relay.eventBuffer.allocationPolicy=DIRECT_MEMORY databus.relay.eventBuffer.queuePolicy=BLOCK_ON_WRITE databus.relay.schemaRegistry.type=FILE_SYSTEM databus.relay.eventBuffer.maxSize=1024000000 databus.relay.eventBuffer.readBufferSize=10240000 databus.relay.eventBuffer.scnIndexSize=10240000 databus.client.connectionDefaults.pullerRetries.initSleep=1 databus.client.checkpointPersistence.fileSystem.rootDirectory=./personclient-checkpoints databus.client.checkpointPersistence.clearBeforeUse=false databus.client.connectionDefaults.enablePullerMessageQueueLogging=true
-
databus2-example-client/src/main/java下的PersonConsumer类是消费逻辑回调代码,主要是取出每一个event后依次打印每个字段的名值对。
-
databus2-example-client/src/main/java下的PersonClient类是relay的启动主类,主要是设置启动Client的配置信息,将消费者实例注册到监听器中,后续可对其进行回调。
6.3.4 build-启动-测试
Build:Databus采用gradle进行编译,所以需要安装gradle环境,安装安成后进入databus根目录执行命令
gradle -Dopen_source=true assemble
即可完成build,成功后在databus根目录下生成名为build的文件夹
-
启动Relay:
- cd build/databus2-example-relay-pkg/distributions
- tar -zxvf databus2-example-relay-pkg.tar.gz解压
- 执行启动脚本 ./bin/start-example-relay.sh or_person -Y ./conf/sources-or-person.json
-
执行命令 curl -s http://localhost:11115/sources
-
启动Client:
- cd build/databus2-example-client-pkg/distributions
- tar -zxvf databus2-example-client-pkg.tar.gz解压
- 执行启动脚本 ./bin/start-example-client.sh person
-
执行命令 curl http://localhost:11115/relayStats/outbound/http/clients
-
测试:
Relay和Client启动成功后,就已经开始对person表进行数据变更捕获了。日志查看:
databus2-example-relay-pkg/distributions/logs下的relay.log
databus2-example-client-pkg/distributions/logs下的client.log
即可。
发布者:全栈程序员-用户IM,转载请注明出处:https://javaforall.cn/181147.html原文链接:https://javaforall.cn
【正版授权,激活自己账号】: Jetbrains全家桶Ide使用,1年售后保障,每天仅需1毛
【官方授权 正版激活】: 官方授权 正版激活 支持Jetbrains家族下所有IDE 使用个人JB账号...