大型网站架构缓存服务器,一个普通网站发展成大型网站的架构演变历程

最近,听到很多的博友说不明白为什么一个网站需要那么复杂的技术,就来问我其原理,于是我也就有了写这篇文章的想法,今天就借助马海祥博客的平台给大家讲诉一个普通的网站发展成大型网站过程中的一种较为典型的架构演变历程和所需掌握的知识体系,希望能给想从事互联网行业的同学一点初步的概念,文中的不对之处也请各位多给点建议,让本文真正起到抛砖引玉的效果 。
1、物理分离和数据库
最开始,由于某些想法,于是在互联网上搭建了一个网站,这个时候甚至有可能主机都是租借的,但由于这篇文章我们只关注架构的演变历程,因此就假设这个时候已经是托管了一台主机,并且有一定的带宽了 。
这个时候由于网站具备了一定的特色,吸引了部分人访问,逐渐你发现系统的压力越来越高,响应速度越来越慢,而这个时候比较明显的是数据库和应用互相影响,应用出问题了,数据库也很容易出现问题,而数据库出问题的时候,应用也容易出问题 。
于是进入了第一步演变阶段:将应用和数据库从物理上分离,变成了两台机器,这个时候技术上没有什么新的要求,但你发现确实起到效果了,系统又恢复到以前的响应速度了,并且支撑住了更高的流量,并且不会因为数据库和应用形成互相的影响 。
看看这一步完成后系统的图示:
这一步涉及到的知识体系:这一步架构演变对技术上的知识体系基本没有要求 。
2、增加页面缓存
好景不长,随着访问的人越来越多,你发现响应速度又开始变慢了,查找原因,发现是访问数据库的操作太多,导致数据连接竞争激烈,所以响应变慢,但数据库连接又不能开太多,否则数据库机器压力会很高,因此,马海祥建议你可以考虑采用缓存机制来减少数据库连接资源的竞争和对数据库读的压力 。
这个时候首先也许会选择采用squid等类似的机制来将系统中相对静态的页面(例如一两天才会有更新的页面)进行缓存(当然,也可以采用将页面静态化的方案),这样程序上可以不做修改,就能够很好的减少对的压力以及减少数据库连接资源的竞争 。
OK,于是开始采用squid来做相对静态的页面的缓存 。
看看这一步完成后系统的图示:
这一步涉及到的知识体系:前端页面缓存技术,例如squid,如想用好的话还得深入掌握下squid的实现方式以及缓存的失效算法等 。
3、增加页面片段缓存
增加了squid做缓存后,整体系统的速度确实是提升了,的压力也开始下降了,但随着访问量的增加,发现系统又开始变的有些慢了 。

大型网站架构缓存服务器,一个普通网站发展成大型网站的架构演变历程

文章插图
在尝到了squid之类的动态缓存带来的好处后,开始想能不能让现在那些动态页面里相对静态的部分也缓存起来呢,因此考虑采用类似ESI之类的页面片段缓存策略 。
OK,于是开始采用ESI来做动态页面中相对静态的片段部分的缓存 。
看看这一步完成后系统的图示:
这一步涉及到的知识体系:页面片段缓存技术,例如ESI等,想用好的话同样需要掌握ESI的实现方式等 。
4、数据缓存
在采用ESI之类的技术再次提高了系统的缓存效果后,系统的压力确实进一步降低了,但同样,随着访问量的增加,系统还是开始变慢,经过查找,可能会发现系统中存在一些重复获取数据信息的地方,像获取用户信息等 。
这个时候开始考虑是不是可以将这些数据信息也缓存起来呢,于是将这些数据缓存到本地内存,改变完毕后,完全符合预期,系统的响应速度又恢复了,数据库的压力也再度降低了不少 。
看看这一步完成后系统的图示:
这一步涉及到的知识体系:缓存技术,包括像Map数据结构、缓存算法、所选用的框架本身的实现机制等 。
5、增加
好景不长,发现随着系统访问量的再度增加,机器的压力在高峰期会上升到比较高,这个时候开始考虑增加一台,这也是为了同时解决可用性的问题,避免单台的 down机的话就没法使用了 。
在做了这些考虑后,决定增加一台,增加一台时,会碰到一些问题,典型的有:
(1)、如何让访问分配到这两台机器上,这个时候通常会考虑的方案是自带的负载均衡方案,或LVS这类的软件负载均衡方案 。
(2)、如何保持状态信息的同步,例如用户等,这个时候会考虑的方案有写入数据库、写入存储、或同步信息等机制等 。
(3)、如何保持数据缓存信息的同步,例如之前缓存的用户数据等,这个时候通常会考虑的机制有缓存同步或分布式缓存 。
(4)、如何让上传文件这些类似的功能继续正常,这个时候通常会考虑的机制是使用共享文件系统或存储等 。在解决了这些问题后,终于是把增加为了两台,系统终于是又恢复到了以往的速度 。
看看这一步完成后系统的图示:
这一步涉及到的知识体系:负载均衡技术(包括但不限于硬件负载均衡、软件负载均衡、负载算法、linux转发协议、所选用的技术的实现细节等)、主备技术(包括但不限于ARP欺骗、linux heart-beat等)、状态信息或缓存同步技术(包括但不限于技术、UDP协议、状态信息广播、所选用的缓存同步技术的实现细节等)、共享文件技术(包括但不限于NFS等)、存储技术(包括但不限于存储设备等) 。
6、分库
享受了一段时间的系统访问量高速增长的幸福后,发现系统又开始变慢了,这次又是什么状况呢?
经过查找,发现数据库写入、更新的这些操作的部分数据库连接的资源竞争非常激烈,导致了系统变慢,这下怎么办呢?
此时可选的方案有数据库集群和分库策略,集群方面像有些数据库支持的并不是很好,因此分库会成为比较普遍的策略,分库也就意味着要对原有程序进行修改,一通修改实现分库后,不错,目标达到了,系统恢复甚至速度比以前还快了 。
看看这一步完成后系统的图示:
这一步涉及到的知识体系:这一步更多的是需要从业务上做合理的划分,以实现分库,具体技术细节上没有其他的要求;但同时随着数据量的增大和分库的进行,在数据库的设计、调优以及维护上需要做的更好,因此对这些方面的技术还是提出了很高的要求的 。
7、分表、DAL和分布式缓存
随着系统的不断运行,数据量开始大幅度增长,这个时候发现分库后查询仍然会有些慢,于是按照分库的思想开始做分表的工作,当然,这不可避免的会需要对程序进行一些修改 。
也许在这个时候就会发现应用自己要关心分库分表的规则等,还是有些复杂的,于是萌生能否增加一个通用的框架来实现分库分表的数据访问,这个在ebay的架构中对应的就是DAL,这个演变的过程相对而言需要花费较长的时间,当然,也有可能这个通用的框架会等到分表做完后才开始做 。
同时,在这个阶段可 能会发现之前的缓存同步方案出现问题,因为数据量太大,导致现在不太可能将缓存存在本地,然后同步的方式,需要采用分布式缓存方案了,于是,又是一通考察和折磨,终于是将大量的数据缓存转移到分布式缓存上了 。
看看这一步完成后系统的图示:
【大型网站架构缓存服务器,一个普通网站发展成大型网站的架构演变历程】这一步涉及到的知识体系:分表更多的同样是业务上的划分,技术上涉及到的会有动态hash算法、 hash算法等;DAL涉及到比较多的复杂技术,例如数据库连接的管理(超时、异常)、数据库操作的控制(超时、异常)、分库分表规则的封装等 。