这个双十一考验的不仅仅是支付宝们,还有网联
2018/11/8 15:00:44

本周日,2018年“双十一”将拉开帷幕。作为国民级的支付工具,支付宝走到今天做出了颠覆性的变革。

今年,支付宝开始了霸道总裁人设,继“中国锦鲤”后,11月1日至10日豪掷11.11亿元开展“码上双11”抢红包活动。

这次我们想得到红包,不用像去年的“捉猫猫”活动那样,大冷天满街跑找红包,今年只需要在支付宝上“养养鸡、种种树”,线下扫码消费,便可获得抽奖资格。

与支付宝活动同样备受关注的还有11日午夜支付速度问题,毕竟支付速度能够决定关注了两周的东西能不能到手。

我想网友们应该可以感觉到,2017年和2016年双十一凌晨支付排队的状况已经有了明显的好转,为此阿里的技术团队付出了七年的汗水。

而今年,由于“断直连”政策的实施,支付速度又成了未知数……(不介意的话点开这里了解下“断直连”与宝宝们的关系吧~)

被倒逼的支付速度

十年“双十一”,不仅造就了中国无与伦比的电商环境,更推动支付宝搭建了一个运行能力近乎变态的云架构。

2010年是支付宝技术革新的关键年。

当时支付宝已经完成二代架构升级,而且2010年“双十一”前,技术人员已经规划出100%的系统余量,大家都觉得能够从容应对。而当“双十一”当天零点刚过,交易量便骤增至平时的三倍,并且到7点还有下降,整个技术团队意识到危机将至,立刻“搬资源,砍业务”。

大家在极度紧张的气氛中坚守着这一天,眼看胜利在望。就在最后一分钟,支付宝核心账务系统突然报警,“嘀嘀嘀的警报声让每个人发急,负责数据库的同事冲过来喊‘资源马上耗尽!赶紧杀掉非关键应用!’”在去年支付宝的技术交流会上,一位支付宝技术人员回忆说。

经历了这次危机,技术团队深知,如果不作出调整,未来是不可能支撑支付宝如此庞大的业务增量的。而在分析了整个业界架构后,支付宝发现“双十一”面临的问题任何当时业界现有的技术都无法解决,必须靠自己。

当时阿里采用的一直是Oracle数据库,而以“双十一”每年井喷式的数据增长量,再使用下去运营成本将高出天际。

在这两方面的压力下,阿里给了技术部门绝对的支持,研发自己的云计算架构。

阿里自2009年就开始云计算的研究,2010年分布式数据库OceanBase的开发与其并行。

终于

2014年“双十一”,支付宝将10%的交易数据链搬到了OceanBase上。

2015年“双十一”,OceanBase替换了支付宝支付系统中的Oracle数据库,同年,支付宝第四代架构升级,全面采用蚂蚁金融云架构。

2016年“双十一”,整个账务库都搬了过来。

2017年,蚂蚁金服全面去IOE,即去掉IBM的小型机、Oracle数据库、EMC存储设备,以自己在开源软件基础上开发的系统代之。

这一步步的突破,支撑支付宝一次次打破纪录,成就了支付宝这个超级APP。

“网联”能否跟上节奏?

网联后的第一个“双十一”能否扛住压力是业界十分关注的话题。

11月2日,央行发文通知加强“双十一”支付清算保障工作,并强调网联清算有限公司负责牵头保障工作,积极协调各单位,制定详细的保障方案和应急预案。可见网联压力之大。

目前,就发卡侧而言,网联已经接入了支付宝90%的交易量和财付通87%的快捷交易量。

去年“双十一”仅支付宝一家的支付峰值达每秒25.6万笔。

而今年4月时,网联技术负责人强群力曾表示,在三地六中心满配情况下,估算可以达到18万笔/秒的性能指标。

对此有消息人士表示,支付宝和银行为用户体验考虑打算采取两手准备:“先走网联,如果网联的系统撑不住,不排除回切直连网络系统的可能”。

“网联”能否喜提自己的第一个“双十一”,3天后便可揭晓。

不晓得又要有多少程序员通宵加班啦。

本文转载目的在于知识分享,版权归原作者和原刊所有。如有侵权,请及时联系我们删除。

展开全文
相关阅读
资讯查询取消