随着大型互联网公司业务的多元化发展,就拿滴滴、美团等大厂来讲,如滴滴打车、单车、外卖、酒店、旅行、金融等业务持续高速增长,单个大型分布式体系的集群,通过加机器+集群内部拆分(kv、mq、Mysql等),虽然具备了一定的可扩展性。但是,随着业务量的进一步增长,这个集群规模琢渐变的巨大,从而一定会在某个点达到性能瓶颈,无法满足扩展性需要,并且大集群内核服务出现问题,会影响全网所有用户。
以滴滴打车、美团外卖举例来说:
- 打车业务体量巨大,尤其在早晚高峰期。全年订单量已越10亿。
- 外卖业务体量庞大,目前单量突破1700w/天,对应如此庞大的单个大型分布式集群,会面临一下问题:
1、容灾问题
2、资源扩展性问题
3、大集群拆分问题
- 核心服务(比如订单服务)挂掉,会影影响全网所有的用户,导致整个业务不可用;
- 数据库主库集中在一个IDC,主机房挂掉,会影响全网所有用户,整个业务无法快速切换和恢复
- 单IDC的资源(机器、网络带宽等)已经没法满足,扩展IDC时,存在跨机房访问延时问题(增加异地机房,时延问题严重)
- 数据库主库单点,连接数有限,不能支持应用程序的持续发展;
- 核心问题:分布式集群规模扩大后,会响应的带来资源扩展、大集群拆分以及容灾问题
- 所有处于对业务扩展性以及容灾需求的考虑,我们需要一套从底层架构彻底解决问题的方案,业界主流解决方案:单元化架构方案
同城 "双活" 架构介绍
目前很多大型互联网公司的业务架构可以理解为同城"双活"架构,注意这里的“双活"是加引号的,具体可以这样理解:
- 1、业务层面上已经做到的真正的双活(或者多活),分别承担部分流量;
- 2、存储层面比如定时任务、缓存、持久层、数据分析等都是主从架构,会有跨机房写的问题;
- 3、一个数据中心故障,可以手动切换流量,部分组件可以自动切换;
- 按照特殊的key(通常为userid)进行路由,判断某次请求该路由到中心集群还是单元化集群;
中心集群:
- 为进行单元化改造的服务(通常不在核心交易链路,比如供应链系统)称为中心集群,跟当前架构保持一致。
单元化集群:
- 每个单元化集群只负责本单元内的流量处理,以实现流量拆分以及故障隔离;
- 每个单元化集群前期只存储本单元产生的交易数据,后续会做双向数据同步,实现容灾切换需求;
中间件(RPC、KV、MQ等):
- RPC:对于SET服务,调用封闭在SET内;对于非SET服务,沿用现有的路由逻辑;
- KV:支持SET的数据生产和查询;
- MQ:支持分SET的消息生产和消费;
数据同步:
- 全局数据(数据量小且变化不大,比如商家的菜品数据)部署在中心集群,其他单元化集群同步全局数据到本单元化内;
- 未来演变为异地多活架构时,各单元化集群数据需要进行双向同步来实现容灾需要
异地容灾:
- 通过SET化架构的流量调度能力,将SET分别部署在不同地区的数据中心,实现跨地区容灾支持
高效的本地化服务:
- 利用前端位置信息采集和域名解析策略,将流量路由到最近的SET,提供最高效的本地化服务;
- 比如O2O场景天然具有本地生产,本地消费的特点,更加需要SET化支持
- SET化架构的实现对业务代码透明,业务代码层面不需要关系SET化规则,SET的部署等问题
SET化切分的规则:
- 理论上,切分规则有业务层面按需定制;
- 实际上,建议优先选最大的业务维度进行切分;
- 比如海量用户的O2O业务,按用户位置信息进行切分。此外接入层、逻辑层和数据层可以由独立的SET切分规则,有利于实现部署和运维成本的最优化
部署规范原则:
- 一个SET并不一定只限制在一个机房,也可以跨机房或者跨地区部署;为保证灵活性,单个SET内机器数不宜过多(如不超过1000台物理机)。
-
- 安装插件
:当你再一个cluster中使用了federation插件,所有在集群中的 nodes都需要安装federation插件
使用RabbitMQ通信插件Rederation:
Federation插件是一个在不需要cluster进行数据同步的(选择一个cluster中的节点和另一个cluster节点同步),而brokers之间传输消息的高新性能插件。
Federation插件可以在brokers或者cluster之间传输消息,链接的双方可以使用不同的users和virtual hosts、或者双方的rabbitmq和erlang版本不一致,federation插件使用AMQP协议通信,可以接受不连续的传输。
SET化配置规则:
第一,Federation Exchanges,可以看成Downstream(82节点)从Upstream(81节点)主动拉取消息,并不是拉取所有消息,必须是在Downstream上已经明确定义Bindings关系的Exchange,也就是有实际的物理Queue来接收消息,才会从Upstream拉取消息到Downstream。使用AMQP协议实施代理间通信,Downstream会将绑定关系组合在一起,绑定/解绑命令将发送到Upstream交换机。
第二,经过配置后,Upstream节点已经可以把消息直接通过Federation Exchanges路由给我们的Downstream节点,然后进行消费。
- 支持消息高性能序列化转换、异步化发送消息
- 支持消息生产实例与消费实例的链接池化、缓存化,提升性能
- 支持可靠性投递消息,保障消息的100%不丢失
- 支持消费端的幂等操作,避免消费端重复消费的问题
- 支持迅速消息发送模式,在一些日志收集、统计分析等需求下可以保证高性能,超高吞吐量(可忽略100%投递)
- 支持延迟消息模式,消息可以延迟发送,指定延迟时间,用于某些延迟检查、服务限流场景
- 支持事务消息,且100%保障可靠性投递,在金融行业单笔大金额操作是会有此类需求
- 支持顺序消息,保证消费送达消费端的前后顺序,例如下订单,再送积分、优惠券等复合性操作
- 支持消息补偿,重试,以及快速定位异常/失败消息
- 支持集群消息负载均衡,保障消息落到具体SET集群的负责均衡
- 支持消息路由策略,指定某些消息路由到指定的SET集群
- 迅速消息是指消息不进行落库存储,不做可靠性的保障
- 在一些非核心消息、日志数据、或者统计分析等场景下比较合适
-
- 顺序消息,比较类似于批量消息的实现机制,但是有些不同。
- 我们要保障以下几点:
- 事务消息,相对使用比较少见,但是在互联网行业中,面对单笔大额现金流交易时遇到遇到过:比如单笔转账超过一个上限的时候,我们就希望这个消息优先级最高,并且可靠性要求达到100%,当然我们的系统和银行端系统都要兼顾才行,所有也会有一些补偿机制,主动发起银行端查询指令机制等。
- 为了保障性能的同时,也支持事务。我们并没有选择传统的RabbitMQ事务和Spring集成的机制,因为在性能测试过程中,效果并不理想,非常消耗系统资源且会出现阻塞等情况,在高峰期也是一定程度上影响MQ集群的性能
- 解决方案:
我们采用类似可靠性投递的机制,也就是补偿机制。
但是我们的数据源必须是同一个,也就是业务操作DB1数据和消息记录BD2数据库必须使用同一个数据源
然后利用重写Spring DatasourceTransactionManage,在本地事务提交的时候进行发送消息,但是也有可能事务提交成功但是消息发送失败,这个时候就需要进行补偿了。-
- 保障消息的幂等性,这也是我们在使用MQ中至关重要的环节
- 可能导致消息出现非幂等性的原因:
https://blog.csdn.net/love905661433/article/details/85452115
https://www.jianshu.com/p/a1bb3e1eba87
http://www.talkwithtrend.com/Article/245299
以上就是本篇文章【SET化架构与RabbitMQ基础组件封装】的全部内容了,欢迎阅览 ! 文章地址:http://keair.bhha.com.cn/quote/4629.html 动态 相关文章 文章 同类文章 热门文章 栏目首页 网站地图 返回首页 康宝晨移动站 http://keair.bhha.com.cn/mobile/ , 查看更多