蚂蚁金服11.11:支付宝和蚂蚁花呗的技术架构及实践

  • 时间:
  • 浏览:1
  • 来源:uu直播快3平台

“器”却说我支持技术工作的各种基础后边件和基础组件;

這個這個现在這個人 通过“云”分享的技术和业务的能力的最好的方式也发展的很快,这就這個人 刚才介绍的“蚂蚁花呗”技术用多少月的时间快速的成功的达到“从上线初期的10笔/秒的支付量发展到双十一当天峰值2.1w笔/秒,快速走完了别人走了几年总要可能 达不还可不还可以 的能力。同类 的例子还有這個人 熟知的“余额宝”系统。

现在支付宝的数据架构不可能 从集中式的小型机和高端存储升级到了分布式PC服务出理 方案,整体数据架构的出理 方案尽量做到无厂商依赖,却说我标准化。

根据CAP和BASE原则,再结合支付宝系统的特点,這個人 设计了一套基于服务层面的分布式事务框架,他支持两阶段提交协议,却说我做了這個這個的优化,在保证事务的ACID原则的前提下,确保事务的最终一致性 。這個人 叫做“柔性事物”策略。原理如下:

却说我进行蓝绿发布流程大致如下:

下图是支付宝内内外部交易数据的可伸缩性设计:

“谋”却说我整体的埋点方案和策略;

支付宝分布式数据架构可伸缩策略主要分为有三个小维度:

不可能 涉及的内容要深入下去是足够写有三个小系列介绍,本文不还可不还可以 提纲挈领的让這個人 有个初步认识,后续不可能 会对這個人 感兴趣的专项内容进行深入分享。

infoQ上读到2篇出自阿里的双11好文,特转载来云栖社区。

分布式数据架构下,在保证事务原有的ACID(原子性、一致性、隔离性、持久性)形状的基础上,前要保证高可用和可伸缩性,挑战非常大。试想你同時 支付了两笔资金,这两笔资金的事务不可能 在分布式环境下相互影响,在其中一笔交易资金回滚的情况下,总要影响另外一笔是多么不还可不还可以 接受的情况。

蚂蚁花呗业务中最为关键的一环在于买家授信和支付风险的控制。从买家下单的那一刻现在开始,后台便现在开始对虚假交易、限额限次、套现、支用风险等风险模型进行并行计算,那些模型最终将在20ms以内完成对仅百亿数据的计算和判定,不能在用户到达收银台前取舍这笔交易算不算处在潜在风险。

作者:贺岩

纵观现在各种架构分享,這個人 喜欢谈“谋”的方面较多,各种埋点方案优化策略分享,但实际最后多是這個情况:“吹的牛X根本没被证实过”(各种框架能力根本没经过实际考验,却说我一纸空谈),“吹过的牛X一经实际考验就破了”(说的设计理念很好,却说我一遇到实际的大业务的冲击系统就挂了),最还可不还可以 成功的少之又少。那些说明随便说说架构上的“心灵鸡汤”和“成功学”技术人员总要可能 熟的不行,却说我发现一到实践随便说说根本总要这么回事。从此还可不还可以 看出,随便说说最后起决定作用的总要 “谋”方面的理论层面的分析设计,最重要的是落地“器”和“将”的层面。有过硬高稳定性的各种基础设施工具的和身经百战被“虐了千百次”的技术人员的支撑才是最后取胜的关键。而你這個有三个小层面的疑问是不还可不还可以 通过分享学到的,是要通过日积月累的,无数流血流泪趟雷中招锻炼出来的,这么近路可抄。

那些总要建立在那我蚂蚁金服用了10年打磨的基础组件和技术人员经验的云服务上的,通过目前基于你這個能力,這個人 目前还可不还可以 快速给内内外部和内外部的客户组建,高可用、安全、高效、合规的金融云服务架构下的系统。

这比传统的“两地三中心”架构有更好的业务连续性保障。在“异地多活”的架构下,有三个小IDC对应的故障容灾IDC是有三个小“活”的IDC,平时就承接着正常线上业务,保证其稳定性和业务的正确性是总是被确保的。

而目前从业务和市场的发展形势来看,往往却说我前要技术在某个特定时间有个质的能力的提升和飞跃,这么多再却说我你这么来越多的准备技术架构提升的时间,在技术积累和人员储备总要足的时候,怎样才能构建平台能力,把更多的精力倒入业务相关的开发任务中,是每个技术团队的希望得到的能力 。

其中关键组件异步可靠消息策略如下:

以下是支付宝“异地多活”架构示意图:

实现:

在双十一大促当天业务量年年翻番的情况下,支付宝面临的考验也这么大:系统的容量这么大,服务器、网络、数据库、机房都随之扩展,这带来了這個比较大的疑问,比如系统规模这么大,系统的繁杂度这么高,时候按照点的伸缩性架构无法满足要求,前要這個人 有一套整体性的可伸缩方案,还可不还可以 按照有三个小单元的维度进行扩展。不能提供支持异地伸缩的能力,提供N+1的灾备方案,提供整体性的故障恢复体系。基于以上多少需求,這個人 提出了逻辑数据中心架构,核心思想是把数据水平拆分的思路向上层提到接入层、终端, 从接入层现在开始把系统分成多个单元,单元有多少形状:

在2015年完成了基于逻辑机房,异地部署的“异地多活”的架构落地。“异地多活”架构是指,基于逻辑机房扩展能力,在不同的地域IDC部署逻辑机房,却说我每个逻辑机房总要“活”的,真正承接线上业务,在处在故障的时候还可不还可以 快速进行逻辑机房之间的快速切换。

Step3. “绿”流量为0%,对“绿”所有应用整体无序分2组发布。

“将”却说我通过实践锻炼成长起来的技术人员。

交易系统的数据主要分为有三个小大数据库集群:

Step4. 恢复日常运行情况,蓝、绿单元各承担线上150%的业务流量。

为了保证蚂蚁花呗双11期间的授信资金富有,在金融云体系下搭建了机构资产中心,对接支付清算平台,将表内的信贷资产打包形成有三个小一定期限的资产池,并以你這個资产池为基础,发行可交易证券进行融资,即通过资产转让的最好的方式获得富有资金,通过你這個创新确保了用户不能通过花呗服务顺利完成交易,并分流对银行渠道的压力。通过资产证券化运作,不仅帮助1150多万小微企业实现融资,也支撑了蚂蚁花呗用户的消费信贷需求。蚂蚁小贷的资产证券化业务平台可达到每小时过亿笔、总规模数十亿元级别的资产转让。

这套架构出理 了多少关键疑问:

蚂蚁花呗是今年增加的有三个小新支付工具,“确认收货后、下月还”的支付体验受到了这么来越多的消费者信赖。跟余额和余额宝一样,蚂蚁花呗避开了银行间的交易链路,最大限度出理 支付时的拥堵。据官方数据披露,在今天的双十一大促中,蚂蚁花呗支付成功率达到99.99%、平均每笔支付耗时0.035秒,和各大银行渠道同時 确保了支付的顺畅。

下面是支付宝逻辑机房架构的概念图:

其中這個关键设计点:

2015年4月,蚂蚁花呗系统同步金融云的单元化的建设,即LDC,使得数据和应用走向异地成为了现实,具备了较好的扩展性和流量管控能力。在可用性方面,与金融云账务体系深度结合,借用账务系统的failover能力,使得蚂蚁花呗通不够成本改造就具备了同城灾备、异地灾备等高可用能力。任何有三个小单元的数据库出了疑问、不能快速进行容灾切换、这么多再影响你這個单元的用户进行蚂蚁花呗支付。在稳定性方面,借有益于云客户平台的高稳定性的能力,将蚂蚁花呗客户签约形成的合约数据迁移进去,并预先写入云客户平台的缓存中,在大促高峰期缓存的命中率达到1150%。同時 ,结合全链路压测平台,对蚂蚁花呗进行了能力摸高和持续的稳定性测试,发现系统的性能点反复进行优化,使得大促当天系统平稳运行。在时候的架构中,系统的秒级出理 能力无法有效衡量,通过简单的引流压测无法得到更加准确、可信的数据。立足于金融云,系统减慢通过全链路压测得到了每秒出理 4w笔支付的稳定能力。

每年“双11”总要一场电商盛会,消费者狂欢日。今年双11的意义尤为重大,它不可能 发展成为全世界电商和消费者都参与进来的盛宴。而对技术人员来说,双十一无疑不可能 成为一场大考,考量的深度是整体架构、基础后边件、运维工具、人员等。

一次成功的大促准备不光是针对活动這個对系统和架构做的优化最好的方式,比如:流量控制,缓存策略,依赖管控,性能优化……更是与长时间的技术积累和打磨分不开。下面我将简单介绍支付宝的整体架构,让這個人 有个初步认识,然总要以本次在大促中大放异彩的“蚂蚁花呗”为例,大致介绍有三个小新业务是怎样才能从头现在开始准备大促的。

对于分拆出来的各个数据节点,为了保证对上层应用系统的透明,這個人 研发一套数据后边产品来保证交易数据做到弹性扩容。

Step1. 发布前,将“蓝”流量调至0%,对“蓝”的所有应用整体无序分2组发布。

Step2. “蓝”引流1%观察,如无异常,逐步上调分流比例至1150%。

目前新架构的同城主体框架在2013年不可能 完成,却说我顺利的面对了双十一的考验,让整套架构的落地工作得到了很好的证明。

支付宝的埋点上应该考虑到互联网金融业务的特殊性,比如要求更高的业务连续性,更好的高扩展性,减慢速的支持新业务发展等特点。目前其架构如下:

除了更好的故障应急能力之外,基于逻辑机房這個人 又具备的“蓝绿发布”不可能 说“灰度发布”的验证能力。這個人 把单个逻辑机房(后续简称LDC)内内外部又分成A、B有三个小逻辑机房,A 、B机房在功能上完全对等。日常情况下,调用请求按照对等概率随机路由到A或B 。当开启蓝绿模式时,上层路由组件会调整路由计算策略,隔离A与B之间的调用, A组内应用不还可不还可以 相互访问,而这么多再访问B组。

与2PC协议比较:

过去這個人 是通过某个开源不可能 商业组件来实现技术共享得到快速出理 谋发展技术的能力的,却说我随着业务繁杂性,专业性,规模的逐步变大,你這個最好的方式的缺点也是显而易见的:1、這個這個组件根本无法满足大并发场景下的各种技术指标;2、随着业务的繁杂和专业性的提高,这么还可不还可以 直接使用的开源组件;3、“人”這個的经验和能力是无法传递的。

以下是分布式事务框架的流程图:

在2014年12月,蚂蚁花呗团队完成业务系统优化,按照标准将系统架设到了金融云上,依次对接了渠道层、业务层、核心平台层、数据层,使得用户对蚂蚁花呗在营销、下单和支付整个过程中体验统一。

蚂蚁花呗距今发展不还可不还可以 一年,但发展速率非常快。从上线初期的10笔/秒的支付量发展到双十一当天峰值2.1w笔/秒。支撑蚂蚁花呗业务发展的技术体系经过不断演进、不可能 完全依托于蚂蚁金服的金融云架构。

整个平台被分成了有三个小层:

经过这么来越多年的高可用架构和大促的准备工作,蚂蚁金融技术团队还可不还可以 做到“先胜而后求战”,主要分为三方面技术积累:“谋”,“器”,“将”。

支付宝在2015年双十一当天的高峰期间出理 支付峰值8.59万笔/秒,不可能 是国际第一大系统支付。支付宝不可能 是全球最大的OLTP出理 者之一,对事务的敏感使支付宝的数据架构有别于這個的互联网公司,却继承了互联网公司特有的巨大用户量,最主要的是支付宝对交易的成本比传统金融公司更敏感,這個這個支付宝数据架构发展,却说我一部低成本、线性可伸缩、分布式的数据架构演变史。