======================12360的业务分析=============

(写在前面的话:在我的博客里,有许多自称是资深程序员说12306的问题如何如何容易解决,它的技术如何如何烂,下面是一位真正的内行写的技术分析,但我要修正他一点,关于网站访问量,12306是世界第一,其他任何一个网站无法望其项背。腾讯自称自己的最高日访问量是1.6个亿,而12306这几天的最高日访问量是18个亿,是腾讯的11倍多。而且腾讯是24小时访问,12306后半夜维护,实际开放时间是16个小时左右,那些质疑说为什么腾讯能应付大访问量的同学们可以对比一下。没有经过实作检验,我对腾讯能在不作大手术的情况下应付比它目前高于11倍的访问量表示强烈怀疑)

12306.cn网站挂了,被全国人民骂了。我这两天也在思考这个事,我想以这个事来粗略地和大家讨论一下网站性能的问题。因为仓促,而且完全基于本人有限的经验和了解,所以,如果有什么问题还请大家一起讨论和指正。(这又是一篇长文,只讨论性能问题,不讨论那些UI,用户体验,或是是否把支付和购票下单环节分开的功能性的东西)

业务

任何技术都离不开业务需求,所以,要说明性能问题,首先还是想先说说业务问题。

其一,有人可能把这个东西和QQ或是网游相比。但我觉得这两者是不一样的,网游和QQ在线或是登录时访问的更多的是用户自己的数据,而订票系统访问的是中心的票量数据,这是不一样的。不要觉得网游或是QQ能行你就以为这是一样的。网游和QQ 的后端负载相对于电子商务的系统还是简单。

其二,有人说春节期间订火车的这个事好像网站的秒杀活动。的确很相似,但是如果你的思考不在表面的话,你会发现这也有些不一样。火车票这个事,还有很多查询操作,查时间,查座位,查铺位,一个车次不 行,又查另一个车次,其伴随着大量的查询操作,下单的时候需要对数据库操作。而秒杀,直接杀就好了。另外,关于秒杀,完全可以做成只接受前N个用户的请求(完全不操作后端的任何数据, 仅仅只是对用户的下单操作log),这种业务,只要把各个服务器的时间精确同步了就可以了,无需在当时操作任何数据库。可以订单数够后,停止秒杀,然后批量写数据库。火车票这个岂止是秒杀那么简单。能不能买到票得当时告诉用户啊。

其三,有人拿这个系统和奥运会的票务系统比较。我觉得还是不一样。虽然奥运会的票务系统当年也一上线就废了。但是奥运会用的是抽奖的方式,也就是说不存在先来先得的抢的方式,而且,是事后抽奖,事前只需要收信息,事前不需要保证数据一致性,没有锁,很容易水平扩展。

其四,订票系统应该和电子商务的订单系统很相似,都是需要对库存进行:1)占住库存,2)支付(可选),3)扣除库存的操作。这个是需要有一致性的检查的,也就是在并发时需要对数据加锁的。B2C的电商基本上都会把这个事干成异步的,也就是说,你下的订单并不是马上处理的,而是延时处理的,只有成功处理了,系统才会给你一封确认邮件说是订单成功。我相信有很多朋友都收到认单不成功的邮件。这就是说,数据一致性在并发下是一个瓶颈。

其五,铁路的票务业务很变态,其采用的是突然放票,而有的票又远远不够大家分,所以,大家才会有抢票这种有中国特色的业务的做法。于是当票放出来的时候,就会有几百万人甚至上千万人杀上去,查询,下单。几十分钟内,一个网站能接受几千万的访问量,这个是很恐怖的事情。据说12306的高峰访问是10亿PV,集中在早8点到10点,每秒PV在高峰时上千万。

多说几句:

库存是B2C的恶梦,库存管理相当的复杂。不信,你可以问问所有传统和电务零售业的企业,看看他们管理库存是多么难的一件事。不然,就不会有那么多人在问凡客的库存问题了。(你还可以看看《乔布斯传》,你就知道为什么Tim会接任Apple的CEO了,因为他搞定了苹果的库存问题)

对于一个网站来说,浏览网页的高负载很容易搞定,查询的负载有一定的难度去处理,不过还是可以通过缓存查询结果来搞定,最难的就是下单的负载。因为要访问库存啊,对于下单,基本上是用异步来搞定的。去年双11节,淘宝的每小时的订单数大约在60万左右,京东一天也才能支持40万(居然比12306还差),亚马逊5年前一小时可支持70万订单量。可见,下订单的操作并没有我们相像的那么性能高。

淘宝要比B2C的网站要简单得多,因为没有仓库,所以,不存在像B2C这样有N个仓库对同一商品库存更新和查询的操作。下单的时候,B2C的 网站要去找一个仓库,又要离用户近,又要有库存,这需要很多计算。试想,你在北京买了一本书,北京的仓库没货了,就要从周边的仓库调,那就要去看看沈阳或 是西安的仓库有没有货,如果没有,又得看看江苏的仓库,等等。淘宝的就没有那么多事了,每个商户有自己的库存,库存分到商户头上了,反而有利于性能。

数据一致性才是真正的性能瓶颈。有 人说nginx可以搞定每秒10万的静态请求,我不怀疑。但这只是静态请求,理论值,只要带宽、I/O够强,服务器计算能力够,并支持的并发连接数顶得住10万TCP链接的建立 的话,那没有问题。但在数据一致性面前,这10万就完完全全成了一个可望不可及的理论值了。

===解决办法:   ==========

=========前端性能优化====================

前端性能优化技术

要解决性能的问题,有很多种常用的方法,我在下面列举一下,我相信12306这个网站使用下面的这些技术会让其性能有质的飞跃。

一、前端负载均衡

通过DNS的负载均衡器(一般在路由器上根据路由的负载重定向)可以把用户的访问均匀地分散在多个Web服务器上。这样可以减少Web服务器的请求负载。因为http的请求都是短作业,所以,可以通过很简单的负载均衡器来完成这一功能。最好是有CDN网络让用户连接与其最近的服务器(CDN通常伴随着分布式存储)。(关于负载均衡更为详细的说明见“后端的负载均衡”)

二、减少前端链接数

我看了一下12306.cn,打开主页需要建60多个HTTP连接,车票预订页面则有70多个HTTP请求,现在的浏览器都是并发请求的。所以,只要有100万个用户,就会有6000万个链接,太多了。一个登录查询页面就好了。把js打成一个文件,把css也打成一个文件,把图标也打成一个文件,用css分块展示。把链接数减到最低。

三、减少网页大小增加带宽

这个世界不是哪个公司都敢做图片服务的,因为图片太耗带宽了。现在宽带时代很难有人能体会到当拨号时代做个图页都不敢用图片的情形(现在在手机端浏览也是这个情形)。我查看了一下12306首页的需要下载的总文件大小大约在900KB左右,如果你访问过了,浏览器会帮你缓存很多,只需下载10K左右的文件。但是我们可以想像一个极端一点的案例,1百万用户同时访问,且都是第一次访问,每人下载量需要1M,如果需要在120秒内返回,那么就需要,1M * 1M /120 * 8 = 66Gbps的带宽。很惊人吧。所以,我估计在当天,12306的阻塞基本上应该是网络带宽,所以,你可能看到的是没有响应。后面随着浏览器的缓存帮助12306减少很多带宽占用,于是负载一下就到了后端,后端的数据处理瓶颈一下就出来。于是你会看到很多http 500之类的错误。这说明服务器垮了。

四、前端页面静态化

静态化一些不常变的页面和数据,并gzip一下。还有一个并态的方法是把这些静态页面放在/dev/shm下,这个目录就是内存,直接从内存中把文件读出来返回,这样可以减少昂贵的磁盘I/O。

五、优化查询

很多人查询都是在查一样的,完全可以用反向代理合并这些并发的相同的查询。这样的技术主要用查询结果缓存来实现,第一次查询走数据库获得数据,并把数据放到缓存,后面的查询统统直接访问高速缓存。为每个查询做Hash,使用NoSQL的技术可以完成这个优化。(这个技术也可以用做静态页面)

对于火车票量的查询,个人觉得不要显示数字,就显示一个“有”或“无”就好了,这样可以大大简化系统复杂度,并提升性能。

六、缓存的问题

缓存可以用来缓存动态页面,也可以用来缓存查询的数据。缓存通常有那么几个问题:
1)缓存的更新。也叫缓存和数据库的同步。有这么几种方法,一是缓存time out,让缓存失效,重查,二是,由后端通知更新,一量后端发生变化,通知前端更新。前者实现起来比较简单,但实时性不高,后者实现起来比较复杂 ,但实时性高。

2)缓存的换页。内存可能不够,所以,需要把一些不活跃的数据换出内存,这个和操作系统的内存换页和交换内存很相似。FIFO、LRU、LFU都是比较经典的换页算法。相关内容参看Wikipeida的缓存算法。

LRU是Least Recently Used最近最少使用算法。
  内存管理的一种算法,对于在内存中但最近又不用的数据块(内存块)叫做LRU,Oracle会根据那些数据属于LRU而将其移出内存而腾出空间来加载另外的数据。
  什么是LRU算法? LRU是Least Recently Used的缩写,即最近最少使用页面置换算法,是为虚拟页式存储管理服务的。

http://baike.baidu.com/view/70151.htm

3)缓存的重建和持久化。缓存在内存,系统总要维护,所以,缓存就会丢失,如果缓存没了,就需要重建,如果数据量很大,缓存重建的过程会很慢,这会影响生产环境,所以,缓存的持久化也是需要考虑的。

==============后端性能优化技术=======================

前面讨论了前端性能的优化技术,于是前端可能就不是瓶颈问题了。那么性能问题就会到后端数据上来了。下面说几个后端常见的性能优化技术。
一、数据冗余

关于数据冗余,也就是说,把我们的数据库的数据冗余处理,也就是减少表连接这样的开销比较大的操作,但这样会牺牲数据的一致性。风险比较大。很多人把NoSQL用做数据,快是快了,因为数据冗余了,但这对数据一致性有大的风险。这需要根据不同的业务进行分析和处理。(注意:用关系型数据库很容易移植到NoSQL上,但是反过来从NoSQL到关系型就难了)

二、数据镜像

几乎所有主流的数据库都支持镜像,也就是replication。数据库的镜像带来的好处就是可以做负载均衡。把一台数据库的负载均分到多台上,同时又保证了数据一致性(Oracle的SCN)。最重要的是,这样还可以有高可用性,一台废了,还有另一台在服务。

数据镜像的数据一致性可能是个复杂的问题,所以我们要在单条数据上进行数据分区,也就是说,把一个畅销商品的库存均分到不同的服务器上,如,一个畅销商品有1万的库存,我们可以设置10台服务器,每台服务器上有1000个库存,这就好像B2C的仓库一样。

三、数据分区

数据镜像不能解决的一个问题就是数据表里的记录太多,导致数据库操作太慢。所以,把数据分区。数据分区有很多种做法,一般来说有下面这几种:

1)把数据把某种逻辑来分类。比如火车票的订票系统可以按各铁路局来分,可按各种车型分,可以按始发站分,可以按目的地分……,反正就是把一张表拆成多张有一样的字段但是不同种类的表,这样,这些表就可以存在不同的机器上以达到分担负载的目的。

2)把数据按字段分,也就是竖着分表。比如把一些不经常改的数据放在一个表里,经常改的数据放在另外多个表里。把一张表变成1对1的关系,这样,你可以减少表的字段个数,同样可以提升一定的性能。另外,字段多会造成一条记录的存储会被放到不同的页表里,这对于读写性能都有问题。但这样一来会有很多复杂的控制。

3)平均分表。因为第一种方法是并不一定平均分均,可能某个种类的数据还是很多。所以,也有采用平均分配的方式,通过主键ID的范围来分表。

4)同一数据分区。这个在上面数据镜像提过。也就是把同一商品的库存值分到不同的服务器上,比如有10000个库存,可以分到10台服务器上,一台上有1000个库存。然后负载均衡。

这三种分区都有好有坏。最常用的还是第一种。数据一旦分区,你就需要有一个或是多个调度来让你的前端程序知道去哪里找数据。把火车票的数据分区,并放在各个省市,会对12306这个系统有非常有意义的质的性能的提高

四、后端系统负载均衡

前面说了数据分区,数据分区可以在一定程度上减轻负载,但是无法减轻热销商品的负载,对于火车票来说,可以认为是大城市的某些主干线上的车票。这就需要使用数据镜像来减轻负载。使用数据镜像,你必然要使用负载均衡,在后端,我们可能很难使用像路由器上的负载均衡器,因为那是均衡流量的,因为流量并不代表服务器的繁忙程度。因此,我们需要一个任务分配系统,其还能监控各个服务器的负载情况。

任务分配服务器有一些难点:

负载情况比较复杂。什么叫忙?是CPU高?还是磁盘I/O高?还是内存使用高?还是并发高?还是内存换页率高?你可能需要全部都要考虑。这些信息要发送给那个任务分配器上,由任务分配器挑选一台负载最轻的服务器来处理。

任务分配服务器上需要对任务队列,不能丢任务啊,所以还需要持久化。并且可以以批量的方式把任务分配给计算服务器。

任务分配服务器死了怎么办?这里需要一些如Live-Standby或是failover等高可用性的技术。我们还需要注意那些持久化了的任务的队列如何转移到别的服务器上的问题。

我看到有很多系统都用静态的方式来分配,有的用hash,有的就简单地轮流分析。这些都不够好,一个是不能完美地负载均衡,另一个静态的方法的致命缺陷是,如果有一台计算服务器死机了,或是我们需要加入新的服务器,对于我们的分配器来说,都需要知道的。另外,还要重算哈希(一致性hash可以部分解决这个问题)。

还有一种方法是使用抢占式的方式进行负载均衡,由下游的计算服务器去任务服务器上拿任务。让这些计算服务器自己决定自己是否要任务。这样的好处是可以简化系统的复杂度,而且还可以任意实时地减少或增加计算服务器。但是唯一不好的就是,如果有一些任务只能在某种服务器上处理,这可能会引入一些复杂度。不过总体来说,这种方法可能是比较好的负载均衡。

fail over是电脑术语,失效切换或者热备份切换,就是产生故障后,切换到备份系统;takeover则是接收接管。
FailOver是一种不可逆的从standy database 到primary database切换的过程,这种情况发生在主库不可用的情况下,比如主库的主机或存储出现重大故障,短期内无法修复的情况下。
与FailOver想对应,还有一种切换模式叫SwitchOver,
SwitchOver是Oracle DataGuard环境中一个很重要的角色,用来完成在primary database 和 standby databases中无任何数据丢失的主备切换。在主备切换中,采用switchover方式,可以保证不丢失任何数据。

在主备切换过程中,原来的 primary database 将转变为standby role ,而原来的standby database将转变为primary role. 这种模式的切换在主备端都不需要重建database.

(服务器备份,双机备份系统(Live-Standby和Live-Live系统),两台机器如何通过心跳监测对方)

五、异步、 throttle 和 批量处理

异步、throttle(节流阀) 和批量处理都需要对并发请求数做队列处理的。

异步在业务上一般来说就是收集请求,然后延时处理。在技术上就是可以把各个处理程序做成并行的,也就可以水平扩展了。但是异步的技术问题大概有这些,a)被调用方的结果返回,会涉及进程线程间通信的问题。b)如果程序需要回滚,回滚会有点复杂。c)异步通常都会伴随多线程多进程,并发的控制也相对麻烦一些。d)很多异步系统都用消息机制,消息的丢失和乱序也会是比较复杂的问题。

throttle 技术其实并不提升性能,这个技术主要是防止系统被超过自己不能处理的流量给搞垮了,这其实是个保护机制。使用throttle技术一般来说是对于一些自己无法控制的系统,比如,和你网站对接的银行系统。

批量处理的技术,是把一堆基本相同的请求批量处理。比如,大家同时购买同一个商品,没有必要你买一个我就写一次数据库,完全可以收集到一定数量的请求,一次操作。这个技术可以用作很多方面。比如节省网络带宽,我们都知道网络上的MTU(最大传输单元),以态网是1500字节,光纤可以达到4000多个字节,如果你的一个网络包没有放满这个MTU,那就是在浪费网络带宽,因为网卡的驱动程序只有一块一块地读效率才会高。因此,网络发包时,我们需要收集到足够多的信息后再做网络I/O,这也是一种批量处理的方式。批量处理的敌人是流量低,所以,批量处理的系统一般都会设置上两个阀值,一个是作业量,另一个是timeout,只要有一个条件满足,就会开始提交处理。

所以,只要是异步,一般都会有throttle机制,一般都会有队列来排队,有队列,就会有持久化,而系统一般都会使用批量的方式来处理。

云风同学设计的“排队系统” 就是这个技术。这和电子商务的订单系统很相似,就是说,我的系统收到了你的购票下单请求,但是我还没有真正处理,我的系统会跟据我自己的处理能力来throttle住这些大量的请求,并一点一点地处理。一旦处理完成,我就可以发邮件或短信告诉用户你来可以真正购票了。

在这里,我想通过业务和用户需求方面讨论一下云风同学的这个排队系统,因为其从技术上看似解决了这个问题,但是从业务和用户需求上来说可能还是有一些值得我们去深入思考的地方:

1)队列的DoS攻击。首先,我们思考一下,这个队是个单纯地排队的吗?这样做还不够好,因为这样我们不能杜绝黄牛,而且单纯的ticket_id很容易发生DoS攻击,比如,我发起N个 ticket_id,进入购票流程后,我不买,我就耗你半个小时,很容易我就可以让想买票的人几天都买不到票。有人说,用户应该要用身份证来排队, 这样在购买里就必需要用这个身份证来买,但这也还不能杜绝黄牛排队或是号贩子。因为他们可以注册N个帐号来排队,但就是不买。黄牛这些人这个时候只需要干一个事,把网站搞得正常人不能访问,让用户只能通过他们来买。

2)对列的一致性?对这个队列的操作是不是需要锁?只要有锁,性能一定上不去。试想,100万个人同时要求你来分配位置号,这个队列将会成为性能瓶颈。你一定没有数据库实现得性能好,所以,可能比现在还差。抢数据库和抢队列本质上是一样的。

3)队列的等待时间。购票时间半小时够不够?多不多?要是那时用户正好不能上网呢?如果时间短了,用户不够时间操作也会抱怨,如果时间长了,后面在排队的那些人也会抱怨。这个方法可能在实际操作上会有很多问题。另外,半个小时太长了,这完全不现实,我们用15分钟来举例:有1千万用户,每一个时刻只能放进去1万个,这1万个用户需要15分钟完成所有操作,那么,这1千万用户全部处理完,需要1000*15m = 250小时,10天半,火车早开了。(我并非信口开河,根据铁道部专家的说明:这几天,平均一天下单100万,所以,处理1000万的用户需要十天。这个计算可能有点简单了,我只是想说,在这样低负载的系统下用排队可能都不能解决业务问题)

4)队列的分布式。这个排队系统只有一个队列好吗?还不足够好。因为,如果你放进去的可以购票的人如果在买同一个车次的同样的类型的票(比如某动车卧铺),还是等于在抢票,也就是说系统的负载还是会有可能集中到其中某台服务器上。因此,最好的方法是根据用户的需求——提供出发地和目的地,来对用户进行排队。而这样一来,队列也就可以是多个,只要是多个队列,就可以水平扩展了。这样可以解决性能问题,但是没有解决用户长时间排队的问题。

我觉得完全可以向网上购物学习。在排队(下单)的时候,收集好用户的信息和想要买的票,并允许用户设置购票的优先级,比如,A车次卧铺买 不到就买 B车次的卧铺,如果还买不到就买硬座等等,然后用户把所需的钱先充值好,接下来就是系统完全自动地异步处理订单。成功不成功都发短信或邮件通知用户。这样,系统不仅可以省去那半个小时的用户交互时间,自动化加快处理,还可以合并相同购票请求的人,进行批处理(减少数据库的操作次数)。这种方法最妙的事是可以知道这些排队用户的需求,不但可以优化用户的队列,把用户分布到不同的队列,还可以像亚马逊的心愿单一样,通过一些计算就可以让铁道部做车次统筹安排和调整(最后,排队系统(下单系统)还是要保存在数据库里的或做持久化,不能只放在内存中,不然机器一down,就等着被骂吧)。

小结

写了那么多,我小结一下:

0)无论你怎么设计,你的系统一定要能容易地水平扩展。也就是说,你的整个数据流中,所有的环节都要能够水平扩展。这样,当你的系统有性能问题时,“加30倍的服务器”才不会被人讥笑。

1)上述的技术不是一朝一夕能搞定的,没有长期的积累,基本无望。我们可以看到,无论你用哪种都会引发一些复杂性,设计总是在做一种权衡。

2)集中式的卖票很难搞定,使用上述的技术可以让订票系统能有几佰倍的性能提升。而在各个省市建分站,分开卖票,是能让现有系统性能有质的提升的最好方法。

3)春运前夕抢票且票量供远小于求这种业务模式是相当变态的,让几千万甚至上亿的人在某个早晨的8点钟同时登录同时抢票的这种业务模式是变态中的变态。业务形态的变态决定了无论他们怎么办干一定会被骂。

4)为了那么一两个星期而搞那么大的系统,而其它时间都在闲着,有些可惜了,这也就是铁路才干得出来这样的事了。

===============================排队系统解决12360特定点高并发的方案==================================

http://blog.codingnow.com/2012/01/ticket_queue.html(排队系统)

其实铁路订票系统面临的技术难点无非就是春运期间可能发生的海量并发业务请求。这个加上一个排队系统就可以轻易解决的。

本来我在 weibo 上闲扯两句,这么简单的方案,本以为大家一看就明白的。没想到还是许多人有疑问。好吧,写篇 blog 来解释一下。

简单说,我们设置几个网关服务器,用动态 DNS 的方式,把并发的订票请求分摊开。类比现实的话,就是把人分流到不同的购票大厅去。每个购票大厅都可以买到所有车次的票。OK ,这一步的负载均衡怎么做我就不详细说了。

每个网关其实最重要的作用就是让订票的用户排队。其实整个系统也只用做排队,关于实际订票怎么操作,就算每个网关后坐一排售票员,在屏幕上看到有人来买票,输入到内部订票系统中出票,然后再把票号敲回去,这个系统都能无压力的正常工作。否则,以前春运是怎么把票卖出去的?

我们来说说排队系统是怎么做的:

其实就类似我们去热门馆子吃饭拿号。只不过要防止别人伪造号插队而已。

如果你来一个人(一次 HTTP 请求),我就随机产生一个我做过一些签名处理的号码返回给你。暂时称为 ticket id 。这个 ticked id 是很难伪造的。

系统在内存里开一个大数组(32G 内存够排上亿人了吧),就是一循环队列。把这个 ticket id 放在队列尾。

用户现在拿着 ticket id 向网关发起请求。网关利用一次 hash 查询,在内存中的数组队列里查到它的位置,立刻返回给用户。用户的前端就可以看到,他在这个网关(售票大厅)前面还有多少人等着。

这里的关键是,整个队列都在本机的内存中,查询返回队列中的位置,可以实现的比一个处理静态文件的 web server 还要高效。静态文件至少还要去调用文件 IO 呢。静态文件 web server 可以处理多少并发量,不用我介绍了。

同时,前端会控制用户拿着 ticket id 查询队列位置的频率。高负载时可以 1s 一次,甚至更长时间。为了防止用户自己写脚本刷这个请求(虽然没有太大意义,因为刷的多也不会排到前面去),如果见到同一个 ticket id 过于频繁的查询。比如 10s 内查询了 20 次以上。就直接把这个 ticket id 作废。持有这个 ticket 的人就需要重新排队了。

对于最后排到的人,系统会生成一个唯一的不可伪造的 session id ,用户下面就可以通过这个 session id 去做实际的购票流程了。可以连去真正的购票服务器,也可以通过网关中转。非法的 session id 会立刻断掉,用户一旦知道伪造 session id 几乎不可能,只有通过 ticket id 排队拿到,除非是恶意攻击系统,不然不会有人乱拿 session id 去试。

我们再给每个 session id 设置一个最长有效时间,比如半小时。如果超过半小时还没有完整购票流程,那么就重新去排队。

至于同时开放多少个 session id ,也就是相当于开放多少个购票窗口,就取决于购票系统能承受的负载了。不过简单计算一下,就知道有排队系统保证了良好的次序,再以计算机的吞吐能力,解决不过几亿人的购票请求,即使这些人都同来排队,也就是一组机器几小时的处理量而已。

这票 blog 也就是随便写写,可能不太严谨,但意思达到了。中间有很多数据需要估算,也不是太难的事情。

为什么现在的购票系统这么滥?关键在于大量的网络带宽,计算力浪费在了“维持次序”上。系统不稳定时,大量的只做了一半的无效的购票流程浪费掉了这些。要响应高并发的 HTTP 请求,关键就在于迅速反应,不要什么都想着从数据库绕一圈。排队的队伍维持就完全不需要使用数据库。如果所有 HTTP 请求都立刻返回,在短时间内可以处理的 HTTP 请求量也会非常大。而如果你一下处理不了这个请求,又把 TCP 连接保持在那里,就莫怪系统支持不住了。

另外,用户看到了不断在减少的队列前面的人数,他们也会安心等待。只要网站页面刷新流畅(只处理队列信息很容易保证),用户体验会很好。

最后补充几句废话:因为铁路购票系统很多年前就实现了内部网络化,有成熟系统支撑,运作多年。这次做互联网版本,一定不能放弃原有系统新来一套。不然实体购票点也在网页上刷不出票就崩溃了。

所以要做的仅仅是怎么做一个系统和原有系统对接。这样风险最小。两套系统可以分别优化处理能力。基于这个设计起点,所以我才不看好所有企图取代原有系统的方案。

最近有几次面试主要围绕假如我来设计12306怎样实现高并发等问题,所以我最近两天特意思考了一下, 看到云风提出的排队方式, 这是一个解决办法,不过我想到从买票来说, 票之间并没有直接关联, 是不是可以做一个“化整为零”的方案?譬如把各趟车票平均分配到20~50台服务器, 通过负载均衡, 用户在各个服务器买票需求应该是正态均匀分布的,是不是就用简单的方式解决了并发? 当然还可以保留小部分余票到一个分配票的服务器,隔较长时间如几分钟同步或轮询一次, 再分配剩余的票。从用户的角度说, 我认为大家从票集中高并发的服务器集群上和从平均分配(也可以根据运行情况动态调整分配比例)的概率其实并无差别。由于铁路是每天固定的时间才可以预售某一天的票, 所以可以来做这个分配的。 因为我希望能找到这个问题的答案或可能好一点的方案, 有兴趣的话请评论一下? 谢谢!

=====讨论1 ======

如果只是为了解决这个订票问题,不应该从技术上着手。业务模式稍微调整下,根本不需要很难的技术。
"单一技术化解决问题是个死胡同"。
拥塞问题的关键是没有解决好调度,结果导致大量的重复和无效操作。

首先,说线上跟车站售票系统共享一个数据库限制了性能,根本不是那么回事。分析一下:
1.库存不是瓶颈。线下的卖票窗口可以把所有的票卖光,而这些交易都是通过现有的数据库完成的,节假日去窗口买票都是没有票卖,就说明原有的线下系统的问题不是交易处理能力不够,票都卖没了。这就说明数据库的交易处理能力完全可以把所有票都卖出去,问题是线上系统上了以后,没有调度好请求。我们根本不用去分析什么票锁定的细节实现,现有系统能卖光票,事实已经说话了。我们需要去担忧什么后端数据库的性能问题么?
2.基于第一点,连现有的这个通用的交易系统都可以满足交易需求,那么如果想进一步加快出票速度,加一个网上订票系统数据库(参照第一点来说这没多大必要),也很简单。不需要很复杂的同步技术,只要改造或者配置现有的客票数据库,加一个批量调票接口即可。12306只要按照一定的时间间隔,对于已经卖完的票,从现有数据库系统里面调票。每次按照比例或者一定的张数来调整,线上每车次总票数也可以限定(否则可能线下买不到票了)。举个例子,比如每隔5分钟,某车次A卖光了,查了线下库里面还有1000张,那么一次可以扣比如200张出来,批量在线下库里设置标志(批量做比单张做效率显然要高很多)。或者按照一个车厢为单位调都可以。然后这批票进入线上库,调过来后,线上库里面该怎么设计存储模式,用高性能的机器都没问题,根本不受现有系统影响。如果需要,卖不完的票还可以回调。

3.排队和异步。跟线下系统比,线上系统导致请求数拥塞的一个关键问题是重复请求:重复刷新和重复排队。线下一个人不可能短时间内去窗口排N次,那么我们线上系统也要保证。线上的优势是可以异步,对应到现实,类似于银行的领号。解决重复排队,就必须要能鉴别用户实体,用预先注册和线下验证结合的方式就能实现。每个用户根据身份证事先在系统里注册一个ID,注册时,使用身份证号和住址信息,就基本能杜绝冒名注册。或者只是用身份证号也可以,用户必须要预先注册,如果只使用身份证号那么存在冒名注册的可能,就需要提供线下拿身份证去验证的手段。(平时非高峰时间允许现有的不用身份证登录购买方式)。
订票过程:
a.余票查询:余票查询不需要严格跟实际库同步,同样定时同步即可。也就是查询到的是准实时的数据。这样这部分数据只要从客票数据库定时推送就可以。数据分布都可以独立优化。这里只有一个接口来更新数据,开放给外部的基本是只读的,不涉及到锁的问题。数据是准实时的(对于这样一个业务系统,完全实时根本没意义)。刷新的间隔后台可以根据规则调整。这个查询功能可以很容易的水平扩展。
b.订票:用户编辑一个订单,填写需要的车次。比如可以填n个车次/硬座/卧铺的组合选择。用户根据前面间隔查询的结果,大概可以估算客票订出的速度,填几个车次,提交订单。订单进入排队。系统根据现有队列长度估算处理时间反馈,如果觉得时间太长可以立即取消。
c.队列限制机制:每个客户提交订单的时候系统在客户记录上标记上次提交的时间(包括立即取消的),间隔一定时间内重复提交直接拒绝(间隔值根据情况调整)。超过这个时间后,重复提交,系统直接在现有队列里面查找,如果查找到现有的订单还没处理完,直接拒绝。这样就杜绝基本重复提交的情况。身份证号码是个分布很有规律的东西,这个队列查找很容易优化。订单一定时间后没有排到处理,用户可以取消排队。频繁恶意提交订单的,提交间隔按照一定规律加大。外挂严重的话,刷外挂的直接法律处罚。

d.支付问题:用户在查客票时已经确定了票价,票款预先存入。订票时不需要跟银行接口打交道。直接在用户帐户扣钱。这样只要票有肯定可以成功,没有的话短信或者其他方式通知用户。
e.票锁定问题,如果票进入自己系统了,怎么搞都可以了。比如按照车次分库,分拣排队的单子,根据某辆车达到的请求量和间隔最大时间两个指标,把分拣后同一个车次批量出票分发。卖完了的车,没票就是没票了,通知用户订票失败,再订就不可能再有票出来。退出来的票量也不多,为这部分不必要导致重复提交无效订单和增加复杂性,退出来的票放到线下去卖就是了。

4.公平原则的保证:前面有人提到网络延时问题和不会上网人群的问题。不会上网的人可以找人帮忙注册用户,买票可以允许特定机构代买,类似订票点那样一张票收5元钱手续费。网络延时问题,这个具体的表现可能要测试后才知道具体情况,不过,有了前面的限制重复提交,限制提交间隔的措施,这个排队会好很多。对于抢队列问题,引入一定时间段内随机排队,比如0-5分钟内用户在队列里面,5-10分钟内提交的订单,在5-10分钟内收订单,到第10分钟末,这批用户顺序随机打乱一次,然后再排在0-5分钟那波后面。每天不同的时段这个值还可以根据负载和票供应调整,这个时间分段调整一个合理的数值,可以保证网速快的不会排网速慢的前面。(这里有个问题是,提交订单在大并发请求的时候,会演化为拼网速抢前面时间段的问题。而时段内随机排序在某种情况下演化为摇号,对于热门票,比如半小时内就卖光的,这种票按照排队已经早失去公平意义了,干脆就让它每天或者几小时后就随机排一次,就演化为摇号好了。这一点没有完美方案。)

总结一下,关键点就是:全异步,无竞争,杜绝重复排队。
硬件上没多少投入。只要保证每个用户能成功提交订单就行了。

转载于:https://www.cnblogs.com/theonemars/archive/2012/11/04/2754010.html

转载 关于12360系统的讨论相关推荐

  1. 《炬丰科技-半导体工艺》 半导体晶圆清洗站多化学品供应系统的讨论

    书籍:<炬丰科技-半导体工艺> 文章:半导体晶圆清洗站多化学品供应系统的讨论 编号:JFKJ-21-1075 作者:炬丰科技 引言 半导体制造工业中的湿法清洗/蚀刻工艺用于通过使用高纯化学 ...

  2. 关于FPV图传系统时延讨论

    关于FPV图传系统时延讨论 1. 源由 2. 时延测试方法 3. 时延测试资料 4. 关于模拟图传 5. 关于FPV时延感受 5.1 静态时延 5.2 动态时延 6. 参考资料 7. 附录 7.1 W ...

  3. 【转载】Linux系统与性能监控

    原文: Linux System and Performance Monitoring Darren Hoch 译:Roger 这是[叔度]给我的一篇非常不错的关于Linux性能监控的文档,可惜是英文 ...

  4. 年报系统课堂讨论记录

    记录 目的:讨论年报系统上线的好处 1 方便使用者正确填写自己的申请信息,减少不必要的流程,可以少跑路. 2 方便工作人员审核信息,尽快完成科技成果的审核,能够简化流程 3 方便领导查询,在时间紧急的 ...

  5. 【转载】取得系统中网卡MAC地址的三种方法

    From:http://blog.csdn.net/zhangting1987/article/details/2732135 网卡地址这个概念有点混淆不清.因为实际上有两个地址,mac地址和物理地址 ...

  6. (转载)动态SLAM系统:VDO-SLAM!

    动态SLAM系统:VDO-SLAM!  这篇博客是转载 计算机视觉life 公众号中的文章.这篇文章是对VDO-SLAM论文的全文翻译,是 !!真人工翻译!!不是机器翻译,我看了之后觉得挺好,所以分享 ...

  7. 【转载】CentsOS系统inotify实时监控服务器文件(夹)定制事件处理程序

    原始博文和参考博文 1.CentsOS系统inotify实时监控服务器文件 2.Linux中让进程在后台运行的方法 3.linux inotify 监控文件系统事件 非常好 方法一 说明: 服务器系统 ...

  8. [转载]树莓派新版系统上使用mjpg-streamer获取USB摄像头和树莓派专用摄像头RaspiCamera图像...

    树莓派新版系统上使用mjpg-streamer获取USB摄像头和树莓派专用摄像头RaspiCamera图像 网上有很多关于mjpg-stream移植到树莓派的文章,大部分还是使用的sourceforg ...

  9. 【转载】RHEL系统crontab计划任务管理

    在Linux操作系统中,除了用户即时执行的命令操作以外,还可以配置在指定的时间.指定的日期执行预先计划好的系统管理任务.在RHEL.CentOS等大多数Linux系统中,默认已经安装了at.cron软 ...

  10. 【转载】Linux系统挂载NTFS文件系统

    http://blog.163.com/flybood@126/blog/static/41230911201062165035335/ 1. 下载源码安装包 # wget http://downlo ...

最新文章

  1. 为什么很多程序员工作时都戴耳机?
  2. Hadoop学习全程记录——在Eclipse中运行第一个MapReduce程序
  3. mysql locking_Mysql next-key locking,读锁,写锁
  4. 今晚直播 | NeurIPS 2021论文解读:基于置信度校正的可信图神经网络
  5. linux运维面板_phpstudy linux web面板(小皮面板)V0.2版本正式发布
  6. 大锅菜机器人_炒菜机器人——烹饪界的一场革命
  7. BugkuCTF-Reverse题mobile1(gctf)
  8. python-内置函数-数学函数
  9. KGPolicy:用于推荐的负采样模型(知识图谱策略网络)WWW 2020
  10. resultmap的写法_Mybatis的ResultMap的使用
  11. soc设计方法与实现_冷轧钢板局部激光热处理实现汽车轻量化设计新方法
  12. 在udp聊天器里如何给飞秋发消息
  13. 百度文库免财富值下载漏洞
  14. 软件数字签名 c语言,C语言实现的SM2数字签名验证
  15. 开发人员必备的13项技能
  16. android 按钮在键盘上,Android使用键盘上的完成按钮点击按钮
  17. 公共WIFI短信认证功能的实现原理
  18. 安装SQL2008时遇到未能加载文件或file:///d:microsoft..sql.chainer.packagedata.dll或它的某个依赖项
  19. windows之间(2台设备以上)同步工具syncthing使用教程
  20. 让0球平局怎么算_格斗游戏连续平局的下场,直接挑战最终BOSS游戏厅老板

热门文章

  1. 习题——路由与交换机技术(五)
  2. 机器人编程语言有哪些? 这5大编程语言的优缺点你都了解?
  3. PPT中插入的图片如何铺满整页
  4. C# SolidWorks 二次开发 API ---创建异型孔特征
  5. win10计算机管理里找不到设备管理器的解决方法
  6. 现代 Nodejs ORM 库 Prisma 的使用详解
  7. 手机怎样识别图片中的文字?
  8. 女生学大数据好还是计算机好?都适合女生吗?就业前景好吗?
  9. Spring AOP中Introduction的使用
  10. linux-netstat的用法-netstat12种网络连接状态