seata参数配置 0.9.0版本
公共部分
key | desc | remark |
---|---|---|
transport.serialization | client和server通信编解码方式 | seata、protobuf |
transport.heartbeat | client和server通信心跳检测开关 | 默认true开启 |
registry.type | 注册中心类型 | 默认file,支持file 、nacos 、redis、eureka、zk、consul、etcd3、sofa、custom |
config.type | 配置中心类型 | 默认file,支持file、nacos 、apollo、zk、consul、etcd3、springcloud、custom |
server端
key | desc | remark |
---|---|---|
transaction.undo.log.save.days | undo保留天数 | 默认7天,log_status=1(附录3)和未正常清理的undo |
transaction.undo.log.delete.period | undo清理线程间隔时间 | 默认86400000,单位毫秒 |
service.max.commit.retry.timeout | 二阶段提交重试超时时长 | 单位ms,s,m,h,d,对应毫秒,秒,分,小时,天,默认毫秒。默认值-1表示无限重试。公式: timeout>=now-globalTransactionBeginTime,true表示超时则不再重试 |
service.max.rollback.retry.timeout | 二阶段回滚重试超时时长 | 同commit |
recovery.committing-retry-period | 二阶段提交未完成状态全局事务重试提交线程间隔时间 | 默认1000,单位毫秒 |
recovery.asyn-committing-retry-period | 二阶段异步提交状态重试提交线程间隔时间 | 默认1000,单位毫秒 |
recovery.rollbacking-retry-period | 二阶段回滚状态重试回滚线程间隔时间 | 默认1000,单位毫秒 |
recovery.timeout-retry-period | 超时状态检测重试线程间隔时间 | 默认1000,单位毫秒,检测出超时将全局事务置入回滚会话管理器 |
store.mode | 事务会话信息存储方式 | file本地文件(不支持HA),db数据库(支持HA) |
store.file.dir | file模式文件存储文件夹名 | 默认sessionStore |
store.file.maxBranchSessionSize | file模式文件存储分支session最大字节数 | 默认16384(16kb),单位byte |
store.file.maxGlobalSessionSize | file模式文件存储全局session最大字节数 | 默认512b,单位byte |
store.file.fileWriteBufferCacheSize | file模式文件存储buffer最大缓存大小 | 默认16384(16kb),单位byte,写入session等数据量大于该值时会抛出异常 |
store.file.flushDiskMode | file模式文件存储刷盘策略 | 默认async,可选sync |
store.file.sessionReloadReadSize | file模式文件存储Server节点重启后从备份文件中恢复的session或lock key上限个数 | 默认100 |
store.db.datasource | db模式数据源类型 | 默认dbcp |
store.db.db-type | db模式数据库类型 | 默认mysql |
store.db.driver-class-name | db模式数据库驱动 | 默认com.mysql.jdbc.Driver |
store.db.url | db模式数据源库url | 默认jdbc:mysql://127.0.0.1:3306/seata |
store.db.user | db模式数据库账户 | 默认mysql |
store.db.min-conn | db模式数据库初始连接数 | 默认1 |
store.db.max-conn | db模式数据库最大连接数 | 默认3 |
store.db.global.table | db模式全局事务表名 | 默认global_table |
store.db.branch.table | db模式分支事务表名 | 默认branch_table |
store.db.lock-table | db模式全局锁表名 | 默认lock_table |
store.db.query-limit | db模式查询全局事务一次的最大条数 | 默认1000 |
metrics.enabled | 是否启用Metrics | 默认false关闭,在False状态下,所有与Metrics相关的组件将不会被初始化,使得性能损耗最低 |
metrics.registry-type | 指标注册器类型 | Metrics使用的指标注册器类型 ,默认为内置的compact(简易)实现,这个实现中的Meter仅使用有限内存计数,性能高足够满足大多数场景;目前只能设置一个指标注册器实现 |
metrics.exporter-list | 指标结果Measurement数据输出器列表 | 默认prometheus,多个输出器使用英文逗号分割,例如"prometheus,jmx",目前仅实现了对接prometheus的输出器 |
metrics.exporter-prometheus-port | prometheus输出器Client端口号 | 默认9898 |
client端
key | role | desc | remark |
---|---|---|---|
service.vgroup_mapping.my_test_tx_group | TM,RM | 事务群组(附录1) | my_test_tx_group为分组,配置项值为TC集群名 |
service.default.grouplist | TM,RM | TC服务列表(附录2) | 仅注册中心为file时使用 |
service.disableGlobalTransaction | TM,RM | 全局事务开关 | 默认false。false为开启,true为关闭 |
service.enableDegrade | TM | 降级开关(待实现) | 默认false。业务侧根据连续错误数自动降级不走seata事务 |
client.async.commit.buffer.limit | RM | 异步提交缓存队列长度 | 默认10000。 二阶段提交成功,RM异步清理undo队列 |
client.lock.retry.internal | RM | 校验或占用全局锁重试间隔 | 默认10,单位毫秒 |
client.lock.retry.times | RM | 校验或占用全局锁重试次数 | 默认30 |
client.lock.retry.policy.branch-rollback-on-conflict | RM | 分支事务与其它全局回滚事务冲突时锁策略 | 默认true,优 先释放本地锁让回滚成功 |
client.report.retry.count | TM,RM | 一阶段结果上报TC重试次数 | 默认5次 |
client.tm.commit.retry.count | TM | 一阶段全局提交结果上报TC重试次数 | 默认1次,建议大于1 |
client.tm.rollback.retry.count | TM | 一阶段全局回滚结果上报TC重试次数 | 默认1次,建议大于1 |
client.table.meta.check.enable | RM | 自动刷新缓存中的表结构 | 默认true |
transaction.undo.data.validation | RM | 二阶段回滚镜像校验 | 默认true开启,false关闭 |
transaction.undo.log.serialization | RM | undo序列化方式 | 默认jackson |
transaction.undo.log.table | RM | 自定义undo表名 | 默认undo_log |
support.spring.datasource.autoproxy | RM | 数据源自动代理开关 | 默认false关闭 |
未使用
key | desc | remark |
---|---|---|
lock.mode | 锁存储方式 | local、remote |
lock.local | ||
lock.remote |
附录1:
事务分组说明。 1.事务分组是什么? 事务分组是seata的资源逻辑,类似于服务实例。在file.conf中的my_test_tx_group就是一个事务分组。 2.通过事务分组如何找到后端集群? 首先程序中配置了事务分组(GlobalTransactionScanner 构造方法的txServiceGroup参数),程序会通过用户配置的配置中心去寻找service.vgroup_mapping.事务分组配置项,取得配置项的值就是TC集群的名称。拿到集群名称程序通过一定的前后缀+集群名称去构造服务名,各配置中心的服务名实现不同。拿到服务名去相应的注册中心去拉取相应服务名的服务列表,获得后端真实的TC服务列表。 3.为什么这么设计,不直接取服务名? 这里多了一层获取事务分组到映射集群的配置。这样设计后,事务分组可以作为资源的逻辑隔离单位,当发生故障时可以快速failover。
附录2:
关于grouplist问题说明下。
- 什么时候会用到file.conf中的default.grouplist? 当registry.type=file时会用到,其他时候不读。
- default.grouplist的值列表是否可以配置多个? 可以配置多个,配置多个意味着集群,但当store.mode=file时,会报错。原因是在file存储模式下未提供本地文件的同步,所以需要使用store.mode=db,通过db来共享TC集群间数据
- 是否推荐使用default.grouplist? 不推荐,如问题1,当registry.type=file时会用到,也就是说这里用的不是真正的注册中心,不具体服务的健康检查机制当tc不可用时无法自动剔除列表,推荐使用nacos 、eureka、redis、zk、consul、etcd3、sofa。registry.type=file或config.type=file 设计的初衷是让用户再不依赖第三方注册中心或配置中心的前提下,通过直连的方式,快速验证seata服务。
附录3:
log_status=1的是防御性的,是收到全局回滚请求,但是不确定某个事务分支的本地事务是否已经执行完成了,这时事先插入一条branchid相同的数据,插入的假数据成功了,本地事务继续执行就会报主键冲突自动回滚。 假如插入不成功说明表里有数据这个本地事务已经执行完成了,那么取出这条undolog数据做反向回滚操作。