文章目录

  • Mycat分片规则
    • 取模
  • 分库
    • schema.xml
  • 分片枚举
    • schema.xml
    • 测试
      • 问题:
  • 固定hash分片
    • 优点
  • 范围约定分片
  • 按日期分区
    • 按天分
  • 一致性HASH
    • 解决什么问题?
    • 原理
    • 增加节点
    • 某个节点宕机
    • 数据倾斜
    • 总结
  • Mycat使用一致性Hash
    • 跳增一致性哈希分片

Mycat分片规则

取模

在前面演示分表的时候,使用了取模的方式实现。

取模的话是根据节点个数进行,会有一些弊端,如:

  1. hash不均匀,生成的分布式id未必是连续的id,因此大概率可能会有很多id被hash到同一个节点;
  2. 扩容需要rehash。假如有3个节点,一个id被id%3 hash到了第一个节点,如果进行扩容,增加一个实例,那么再对这个id进行hash,id%4,可能就到了另外一个节点,这样的话就无法查询到这个id的数据信息。

分库

这里使用两组主从实例。

master-01——slave01

master02——slave02
【搭建主从见文尾巴】

在两个master中创建一个mycat库,和如下表:

CREATE TABLE `t_order` (`orderId` bigint(20) NOT NULL,`orderName` varchar(255) NOT NULL,`orderType` varchar(255) CHARACTER SET utf8 NOT NULL,`createTime` datetime DEFAULT NULL,PRIMARY KEY (`orderId`) USING BTREE
) ENGINE=InnoDB DEFAULT CHARSET=utf-8 ROW_FORMAT=DYNAMIC;

schema.xml

<schema name="mycatDB" checkSQLschema="true" dataNode="ali3307"><!--指定两个dataNode,对应两个master主机--><table name="t_order" dataNode="ali3307,tx3306"  primaryKey="orderId" rule="mod-long"></table>
</schema><dataNode name="ali3307" dataHost="HOSTali3307" database="mycat" /><dataNode name="tx3306" dataHost="HOSTtx3306" database="consult" /><!--第一个master--><dataHost name="HOSTali3307" maxCon="1000" minCon="10" balance="0"writeType="0" dbType="mysql" dbDriver="native" switchType="1"  slaveThreshold="100"><!--heartbeat标签发送心跳,会检测下面的两个主机是否为主从--><heartbeat>select user()</heartbeat><connectionInitSql></connectionInitSql><!--如果writeHost指定的后端数据库宕机,那么这个writeHost绑定的所有readHost都将不可用。另一方面,由于这个writeHost宕机系统会自动的检测到,并切换到备用的writeHost上去--><!--writeHost,指定我们的master,用于写--><writeHost host="aliWrite" url="xxxx:3307" user="root"password="root"><!--readHost指定为slave,用于读--><readHost host="aliRead" url="xxxx:3316" password="root" user="root"/></writeHost></dataHost>
<!--第二个master--><dataHost name="HOSTtx3306" maxCon="1000" minCon="10" balance="0"writeType="0" dbType="mysql" dbDriver="native" switchType="1"  slaveThreshold="100"><heartbeat>select user()</heartbeat><connectionInitSql></connectionInitSql><writeHost host="txWrite" url="xxxx:3306" user="root"password="123456"><readHost host="txRead" url="xxx:3307" password="123456" user="root"/></writeHost></dataHost>

说明:

  • 在虚拟表table中指定两个master实例的dataNode。

  • 两个dataNode分别指定自己的dataHost,在dataHost中,writeHost指定为master,用于写,readHost用于指定slave,用于读。

  • mycat会自动检测到主从关系。

  • 规则rule这里还是使用取模 mod-long,在rule.xml中配置的:

    <tableRule name="mod-long"><rule><!--指定id列名--><columns>orderId</columns><algorithm>mod-long</algorithm></rule></tableRule>
    <function name="mod-long" class="io.mycat.route.function.PartitionByMod"><!--两个master实例,配置2--><property name="count">2</property></function>
    

测试添加两条数据:

insert into t_order(orderId,orderName,orderType,createTime) values(741624363904667648,'na','DD','2020-02-02')
insert into t_order(orderId,orderName,orderType,createTime) values(741624363904667649,'na','DD','2020-02-02')

分别插入到了两个库中的t_order表。

分片枚举

假如我们要根据某个字段进行分区,如根据不同的省份分到不同的库中。

准备一张表:

CREATE TABLE `t_order_province` (`orderId` bigint(20) NOT NULL,`orderName` varchar(255) NOT NULL,`createTime` datetime DEFAULT NULL,`province` varchar(255) NOT NULL,PRIMARY KEY (`orderId`) USING BTREE
) ENGINE=InnoDB DEFAULT CHARSET=latin1 ROW_FORMAT=DYNAMIC;

第4个字段为所属省份信息,我们就根据该字段进行分区。

schema.xml

<schema name="mycatDB" checkSQLschema="true" dataNode="ali3307"><table name="t_order_province" dataNode="ali3307,tx3306" primaryKey="orderId" rule="sharding-by-intfile"></table></schema>

在这里表名换成上面的表,然后指定分区规则。其他的和之前的一样。

在rule.xml中配置规则:

<tableRule name="sharding-by-intfile"><rule><columns>province</columns><algorithm>hash-int</algorithm></rule></tableRule>
<function name="hash-int"class="io.mycat.route.function.PartitionByFileMap"><property name="mapFile">partition-hash-int.txt</property><!--type默认值为0,0表示Integer,非零表示String--><property name="type">1</property><property name="defaultNode">0</property></function>

columns指定分区的列。

在该function中,mapFile指定分区的配置文件。

如下:

BJ=0
SJ=0
GZ=0
HZ=0
JS=1
SX=1

假设将这几个省份分别分到两个区中(注意有几个mysql实例,就只能分几个区,我们有两个master实例,因此最多只能分俩区)

因此,这种方式只能针对这种知道固定值的场景,对范围内可能出现的值做固定分区。

defaultNode:

表示默认节点:小于0表示不设置默认节点,大于等于0表示设置默认节点。

对于不能找到分区的值就存到默认节点中。

测试

连接mycat的逻辑库插入数据:

INSERT INTO t_order_province(orderId,orderName,createTime,province) values(2133,'嘻哈哈','2020-08-03','BJ');
INSERT INTO t_order_province(orderId,orderName,createTime,province) values(2134,'噜噜噜','2020-08-03','HZ');INSERT INTO t_order_province(orderId,orderName,createTime,province) values(2133,'滴滴','2020-08-03','JS');
INSERT INTO t_order_province(orderId,orderName,createTime,province) values(2134,'啦啦','2020-08-03','SX');

结果:

可以看到,4组数据根据省份名,按照配置的分区进入到了两个库中。

这样就可以根据各个省份实际的业务量,对其数据进行分区到不同的库中。

问题:

对于这样一种分片方式,像上海北京这样的地区的数据量非常大,这样的话,时间久了数据量就会倾斜到此类地区的分区中,而像新疆、西藏的分区就会很少,当数据量饱和时,就需要再增加节点,如使用三台机器保存北京上海的数据。这时可以在中间再加一层mycat,通过一致性hash进行分片:

一致性hash我们后面再讲。

固定hash分片

该分片规则,就取id的二进制低10位,然后和1111111111相与得到一个结果。

优点

相对于十进制取模,当连续插入1-10时,可能会被分到10根分片,而基于二进制,可能会分到连续的分片,能够减少插入事务,避免使用XA带来的性能问题。

配置:

其他都一样,分片规则改成固定hash。

rule.xml中配置如下:

<tableRule name="gd-hash"><rule><columns>orderId</columns><algorithm>gd-hash-func</algorithm></rule></tableRule><function name="gd-hash-func" class="io.mycat.route.function.PartitionByLong"><property name="partitionCount">1,1</property><property name="partitionLength">300,724</property></function>

这里有两个参数:

  • partitionCount

    分区的数量,值为逗号隔开的相加。上面就是2个分区,如果为2,1那就是3个分区。

  • partitionLength

    每个分区的长度。总长为1024。如上面的,第一个分区就是0-299,第二个分区就是300-1023;

    如果是如下配置:

    <function name="gd-hash-func" class="io.mycat.route.function.PartitionByLong"><property name="partitionCount">2,1</property><property name="partitionLength">300,424</property></function>
    

    则共3个分区。第一个分区范围为:0-299;第二个分区为:300-599;第三个分区为600-1023;

配置完成后插入两条数据:

INSERT INTO t_order_province(orderId,orderName,createTime,province) values(1111,'aa','2020-02-02','BJ');
INSERT INTO t_order_province(orderId,orderName,createTime,province) values(8888,'aa','2020-02-02','BJ');
  • 1111

    转为二进制为10001010111
    低10位为:0001010111。
    和1111111111相与后为:1010111=87,因此进入第一个分区

  • 8888

    二进制:10001010111000

    低10位:1010111000

    相与后:1010111000=696进入第二个分区。

结果:

范围约定分片

用处不大,就是指定固定的范围进行分片。

rule.xml:

<tableRule name="range-sharding"><rule><columns>orderId</columns><algorithm>rang-sharding</algorithm></rule></tableRule><function name="rang-sharding"class="io.mycat.route.function.AutoPartitionByLong"><property name="mapFile">autopartition-long.txt</property></function>

指定在autopartition-long.txt文件中配置范围规则:

0-1000=0
1001-2000=1

0-1000的id在0分区,1001-2000的分区在1分区。

如果不在范围内,则不可插入。

很简单,就不演示了。

按日期分区

按天分

其他都一样,指定分区规则即可:

<tableRule name="sharding-by-date"><rule><columns>createTime</columns><algorithm>partbyday</algorithm></rule></tableRule>

columns指定日期列。

<function name="partbyday"class="io.mycat.route.function.PartitionByDate"><property name="dateFormat">yyyy-MM-dd</property><!--开始日期--><property name="sNaturalDay">0</property><property name="sBeginDate">2020-08-01</property><!--结束日期--><property name="sEndDate">2020-08-08</property><property name="sPartionDay">4</property></function>
  • sPartionDay

    分区大小。指定分区的天数。即从开始日期开始,每n天分在一个节点中。

因为当前只有两个数据库实例,因此调成每4天一个分区,范围从08-01开始,到08-08,正好可以分2个区。

如果范围内可分的分区数大于配置的dataNode个数,启动就会报错。

如果想启动不报错,就不指定结束日期,这样就可以启动了。但是肯定也会按从开始日期开始指定天数进行分区的,所以如果插入的数据的日期除以范围个数的出来的分区位置没有对应的dataNode的话,还是会插入失败。

仍然用之前按省分的那个表:

INSERT INTO t_order_province(orderId,orderName,createTime,province) values(1111,'aa','2020-08-03','BJ');
INSERT INTO t_order_province(orderId,orderName,createTime,province) values(222,'aa','2020-08-04','BJ');
INSERT INTO t_order_province(orderId,orderName,createTime,province) values(333,'aa','2020-08-06','BJ');
INSERT INTO t_order_province(orderId,orderName,createTime,province) values(4444,'aa','2020-08-08','BJ');

这样4条数据,前两个应该在第一个dataNode中,后两个应该在第二个dataNode中:

按月分区道理一样的:

<function name="sharding-by-month"class="io.mycat.route.function.PartitionByMonth"><property name="dateFormat">yyyy-MM-dd</property><property name="sBeginDate">2020-01-01</property><property name="nPartition">3</property></function>

按需配置即可。相关配置进入PartitionByMonth可以看。

一致性HASH

解决什么问题?

前面在分片枚举的部分说到,对于上海北京这样的会出现大业务量的分区,一定会出现数据倾斜现象,这时我们需要对原本的分区节点进行扩容,而扩容一下不要紧,原本hash到之前节点的数据,扩容后,节点个数加1,再进行hash就肯定无法定位到之前的节点,相当于这些数据通过简单的按节点个数取模的hash方式都找不到了。

假如是Redis的架构,那么相当于原理的某个机器的所有的key都失效了,这样当访问这些key的时候就都会打到数据库,会出现缓存雪崩。

原理

如上,一致性hash算法会对2^32次方进行取模,所有的hash后的值组成了一个hash环

每个主机和过来的id,都会通过一个hash算法获得其在hash环上的一个位置。

上图中,假设有三个节点 H1、H2和H3,其通过hash会到了环中的某个位置;

现在又id1~id5五个id,分别进行hash后也到了环上的几个位置;

这些id如何对应到某个节点呢?

这里,其一致性hash按照环的顺时针方向,对某个id,将其放在顺时针方向距离其最近的一个节点上。

上图中,分配到某个节点的id和当前节点用了同一个颜色标注

那么假设以下情况:

增加节点

此时像分片枚举中那样,单个节点不够用了,OK,我们加一个节点:

此时增加了一个H4节点,那么现在,就不会像之前的取模hash一样,所有的id都会失效,现在只会有从H4到H2之间的id,即id1会失效,此时id1交给H4处理。

容错性比原本的方式要好很多。

某个节点宕机

假设此时H3宕机了,那么只有H3和H1之间的id数据会收到影响,即id4,此时id4交给H2处理。

数据倾斜

节点较多时,其hash分布肯定会较均匀,但假如节点比较少,就会出现数据倾斜的情况:

如上,id1、id2、id3和id5都分配给了H1,而H3只分配到了id4,这就会出现数据倾斜。

而一致性hash针对这种情况,会采用一种虚拟节点的方式解决:

如上,H3映射出一个虚拟的H3-1,H1映射出一个虚拟的H1-1;

这样id2、id5由H1-1处理;

id1由H3-1处理;

但是实际上,id2和id5逗游实际的H1处理(图中箭头所示),id1由实际的H3处理。

因此,其内部需要维护一个虚拟节点到真实节点的映射关系。

在查询时,比如查id1,通过hash找到对应的环的位置,然后找到最近的H3-1。再根据映射关系找到真实的H3,然后从H3中找到id1的数据。

这就是一致性hash的原理。

总结

  • 通过虚拟节点解决数据倾斜问题
  • 动态扩容或节点宕机时,需要迁移的数据少

Mycat使用一致性Hash

rule.xml

 <tableRule name="sharding-by-murmur"><rule><columns>orderId</columns><algorithm>murmur</algorithm></rule></tableRule><function name="murmur"class="io.mycat.route.function.PartitionByMurmurHash"><property name="seed">0</property><!-- 默认是0 --><property name="count">2</property><!-- 要分片的数据库节点数量 --><property name="virtualBucketTimes">160</property><!-- 一个实际的数据库节点被映射的虚拟节点个数,默认就是160 --><!-- <property name="weightMapFile">weightMapFile</property> 节点的权重,没有指定权重的节点默认是1。以properties文件的格式填写,以从0开始到count-1的整数值也就是节点索引为key,以节点权重值为值。所有权重值必须是正整数,否则以1代替 --><property name="bucketMapPath">D:\Documentation\JAVA\mycat\Mycat-Server-Mycat-server-1675-release\src\main\resources</property><!-- 用于测试时观察各物理节点与虚拟节点的分布情况,如果指定了这个属性,会把虚拟节点的murmur hash值与物理节点的映射按行输出到这个文件,没有默认值,如果不指定,就不会输出任何东西 --></function>

这里还是使用之前的分片枚举用的表,插入1000条数据:

 @Testpublic void test() {for (int i = 0; i < 1000; i++) {Order order = new Order();order.setOrderId(SnowflakeUtil.nextId());order.setOrderName("RR");order.setProvince("XX");orderMapper.add(order);}}
@Insert("insert into t_order_province(orderId,orderName,createTime,province) values(#{orderId},#{orderName},now(),#{province})")int add(Order order);

两个数据库的数据:

一个449,一个551,较均匀。

跳增一致性哈希分片

mycat源码说明:思想源自Google公开论文,比传统一致性哈希更省资源速度更快数据迁移量更少

rule.xml

 <tableRule name="jch"><rule><columns>orderId</columns><algorithm>jump-consistent-hash</algorithm></rule></tableRule>
<function name="jump-consistent-hash" class="io.mycat.route.function.PartitionByJumpConsistentHash"><property name="totalBuckets">2</property></function>

totalBuckets:指定节点个数。

插入1000条数据:

 @Testpublic void test() {for (int i = 0; i < 1000; i++) {Order order = new Order();order.setOrderId(SnowflakeUtil.nextId());order.setOrderName("RR");order.setProvince("XX");orderMapper.add(order);}}
@Insert("insert into t_order_province(orderId,orderName,createTime,province) values(#{orderId},#{orderName},now(),#{province})")int add(Order order);

两个master实例的数据均匀了很多。

Mycat(三)——几种分片规则 分库 一致性hash的原理及使用相关推荐

  1. 一致性hash环原理

    转自信仰<一致性hash环原理>(知乎), 吴帝永<一致性Hash算法(hash环)> 1. 为什么需要一致性Hash环 假设我们有N个Cache服务器的Node,我们的要求就 ...

  2. 一文搞懂一致性hash的原理和实现

    在 go-zero 的分布式缓存系统分享里,Kevin 重点讲到过一致性hash的原理和分布式缓存中的实践.本文来详细讲讲一致性hash的原理和在 go-zero 中的实现. 以存储为例,在整个微服务 ...

  3. Java算法之 一致性hash算法原理及实现

    为什么80%的码农都做不了架构师?>>>    一致性hash算法原理及实现 转载于:https://my.oschina.net/90888/blog/1645131

  4. 给面试官讲明白:一致性Hash的原理和实践

    戳蓝字"CSDN云计算"关注我们哦! 来源 | 靳刚同学 作者 | 靳刚 "一致性hash的设计初衷是解决分布式缓存问题,它不仅能起到hash作用,还可以在服务器宕机时, ...

  5. 一致性 Hash 算法原理总结

    一致性 Hash 算法是解决分布式缓存等问题的一种算法,本文介绍了一致性 Hash 算法的原理,并给出了一种实现和实际运用的案例: 一致性 Hash 算法背景 考虑这么一种场景: 我们有三台缓存服务器 ...

  6. 一致性hash算法虚拟节点_一致性Hash算法原理详解

    数据分片 先让我们看一个例子吧: 我们经常会用 Redis 做缓存,把一些数据放在上面,以减少数据的压力. 当数据量少,访问压力不大的时候,通常一台Redis就能搞定,为了高可用,弄个主从也就足够了: ...

  7. Java之一致性hash算法原理及实现

    为什么80%的码农都做不了架构师?>>>    一致性哈希算法是分布式系统中常用的算法. 比如,一个分布式的存储系统,要将数据存储到具体的节点上,如果采用普通的hash方法,将数据映 ...

  8. 一致性hash算法原理

    集群容错 在分布式网络通信中,容错能力是必须要具备的,什么叫容错呢? 从字面意思来看:容:是容忍, 错:是错误. 就是容忍错误的能力. 我们知道网络通信会有很多不确定因素,比如网络延迟.网络中断.服务 ...

  9. mysql查逻辑表的分片规则_MySQL(19) Mycat分片(分库分表)配置

    一.前言 本文将基于主从复制,读写分离的环境基础上进行一个简单的分片(分库分表)配置 二.Mycat分片配置 mycat分片主要在scheam.xml,rule.xml这2个表中配置 ① scheam ...

最新文章

  1. vue-cli3.0结合lib-flexible、px2rem实现移动端适配,完美解决第三方ui库样式变小问题
  2. 机器学习总结——机器学习课程笔记整理
  3. 【转】C# 彻底搞懂async/await
  4. mysql 多列union_Mysql联合查询UNION和UNION ALL的使用介绍
  5. MongoDB增删改
  6. android Surface和SurfaceView概述
  7. github上创建java项目简单操作
  8. 2018-4-18 Linux学习笔记
  9. 拓端tecdat|R语言广义线性模型索赔频率预测:过度分散、风险暴露数和树状图可视化
  10. java9的垃圾收集机制,JAVA学习笔记9——垃圾回收机制+构造方法+重载
  11. 计算机的工作原理机电原理,机电控制系统原理及工程应用
  12. winsock类型病毒后遗症处理
  13. 禁忌搜索算法原理步骤、matlab实现算例及相关代码
  14. 最后一波机会!!本周你最不能错过的互联网大会,VIP门票0元限时抢!
  15. noi2017滚粗记
  16. 软件测试精华总结,入门到精通全流程(必看,知识点很全)
  17. go每日新闻(2021-08-29)——Go程序内存假泄漏是怎么回事
  18. 新一轮涨价潮来袭!英飞凌、安森美、ST、安世等交期长达52周
  19. 80C51引脚功能及片内RAM、片内ROM简介
  20. fluent什么时候用滑移网格_Fluent转子定子系统的流体动力学计算

热门文章

  1. 机器学习-RNN机器翻译
  2. 诓”妹妹与“旺”夫君
  3. 云计算-让企业更方便
  4. linux下python识别excel,Python操作Excel之数据提取
  5. 任务管理器结束任务进程
  6. Gearman使用简介
  7. 企业专线传输网络与普通宽带的对比
  8. 怎么通过微信开发者工具打开一个项目
  9. Scrapy框架实例-2(沪江网网课信息)
  10. 奇异量子物理系统:它既在“绝对零度”之下,又在“绝对高温”之上