大市中国

大市中国 > 产经 >

惊险10分钟:揭秘“双11”幕后的科技金融战

2021-08-07 15:37:34

 

来源:互联网

惊险10分钟:揭秘“双11”幕后的科技金融战

李晖

电商“双11”大幕落下,天猫、淘宝、京东平台交易量再创新高,在“买买买”背后,支撑每一笔交易流畅进行的基础设施正在受到关注。

11月12日一早,网联清算平台公布了 “双11”运行当日的数据:处理跨机构交易共计11.7亿笔,相应跨机构交易处理峰值超过9.2万笔/秒,保障了“双11”期间支付体系平稳运行,顺利通过“大考”。

“双11”是历年网络支付的高峰,高峰时点屡次创下全球并发峰值纪录,交易“洪峰”给参与方系统容量、线路带宽等带来极限挑战,也是对参与方科技能力的集中检验。

在“断直连”背景下迎来的第一个“双11”,对清算机构、支付机构和银行机构而言其挑战与此前多年又有所不同——银行如何在“断直连”模式下保证交易链路的畅通;支付宝如何在自身技术高位上持续“翻山”解决不断井喷的支付需求;特别是对于“网联”,这场对平台性能、峰值承载能力的考验是奠定其发展方向的关键节点。

而这一多方协同与自我迭代的过程,亦是中国支付清算水平整体进阶的过程。

峰值数据创国际纪录

11月10日晚,北京二环路边的一座写字楼顶层灯火通明。网联总部保障“双11”总指挥中心里气氛紧张——来自行业相关支付机构、多家银行的代表悉数到场坐镇,而6大数据中心和多个远程指挥中心亦同步进入倒计时阶段。

据现场人士透露,10日晚23时30分左右,总指挥开始进行各相关单位“点名”程序,以核实系统运行是否正常。23:55分,现场总指挥部宣布进入“静默期”。

0点一到,显示屏上的交易曲线开始快速爬坡很快TPS(处理交易笔数/秒)就已经达到1万,此后7万、8万,短时间内一度冲高到9万多TPS。“很稳健,平台系统成功率一直保持在100%。”一位在远程指挥中心参与“双11”保障的股份制银行人士告诉记者。

事实上,由于“双11”的交易特征主要是抢单,交易峰值会在前十分钟瞬间冲高,然后快速回落。以支付宝2017年公布的数据显示,“双11”当晚的交易峰值25.6万笔/秒出现在5分钟22秒,而2016年这一数字大约出现在9分半。因此,当晚0:00~0:10通常是交易发起最集中的时间段,也是清算、支付、银行各机构承压的关键区间。

前述股份制银行人士透露,顶住前10分钟后面基本就没问题。“大家确实很紧张,而且0点是银行的日终处理环节。但除了更紧张更多是兴奋,毕竟前期准备比较充分。”

据记者了解,自今年9月以来,网联和相关银行、支付机构应对“双11”已经进行了24次压力测试。其中有三次处理峰值超过11万TPS,最高达到过12万TPS,持续时间都将近10分钟。

据网联方面透露,目前平台处理峰值承载能力实际上已经超过此前公布的18万笔/秒。 “峰值承载设计保证有足量冗余。”

相关数据显示,Visa目前清算处理能力处于2.4万TPS,实验室下的峰值处理能力约6.5万TPS。而目前欧洲快速支付系统的交易峰值是500TPS。网联的峰值数据,已创下了国际范围内清算组织实际处理并发峰值的纪录。

即使如此,应急和备用方案也是必须。据记者了解,网联处理应急情况的逻辑不是PlanA或PlanB,而是在每一个环节均准备了相应预案——通过联合运维机制、“一行一策”等机制,实现银行、支付机构和网联的三方参与联动。例如,如果某银行系统在交易过程中发生问题,网联可以通过流量控制等方式帮其疏解压力。

光大银行电子银行部资深业务总监许长智告诉记者,上述“一行一策”其实是根据银行体量、平台能力、业务特点进行设计的,按照交易维度、时间轴等参数设定不同的阈值进行分流。“这种一行一策其实贯穿在整个‘断直连’过程中,网联接入标准对银行整个系统水平也是一次升级。”

事实上,针对网络支付的交易特点,网联平台系统在建设初期即采用分布式云架构体系,在北京、上海、深圳三地设立了6个数据中心。这种分布架构在应对交易峰值压力时优势明显,“即使其中一个出现问题,也不会影响其他中心运转。”网联战略产品负责人巢湛表示。

上述技术能力反映在用户侧,就是交易的顺滑无卡顿。据记者了解,目前网联平台处理全链路交易耗时不到300毫秒,在用户体验上就是一秒钟得到支付成功消息。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。