淘宝技术架构演进之路
1. 概述
本⽂以淘宝作为例⼦,介绍从⼀百个到千万级并发情况下服务端的架构的演进过程,同时列举出每个演进阶段会遇到的相关技术,让⼤家对架构的演进有⼀个整体的认知,⽂章最后汇总了⼀些架构设计的原则。
特别说明:本⽂以淘宝为例仅仅是为了便于说明演进过程可能遇到的问题,并⾮是淘宝真正的技术演进路径
2. 基本概念
在介绍架构之前,为了避免部分读者对架构设计中的⼀些概念不了解,下⾯对⼏个最基础的概念进⾏介绍:
分布式
系统中的多个模块在不同服务器上部署,即可称为分布式系统,如Tomcat和数据库分别部署在不同的服务器上,或两个相同功能的Tomcat分别部署在不同服务器上
⾼可⽤
系统中部分节点失效时,其他节点能够接替它继续提供服务,则可认为系统具有⾼可⽤性
集
⼀个特定领域的软件部署在多台服务器上并作为⼀个整体提供⼀类服务,这个整体称为集。如Zookeeper中的Master和Slave分别部署在多台服务器上,共同组成⼀个整体提供集中配置服务。在常见的集中,客户端往往能够连接任意⼀个节点获得服务,并且当集中⼀个节点掉线时,其他节点往往能够⾃动的接替它继续提供服务,这时候说明集具有⾼可⽤性
负载均衡
请求发送到系统时,通过某些⽅式把请求均匀分发到多个节点上,使系统中每个节点能够均匀的处理请求负载,则可认为系统是负载均衡的
正向代理和反向代理
系统内部要访问外部⽹络时,统⼀通过⼀个代理服务器把请求转发出去,在外部⽹络看来就是代理服务器发起的访问,此时代理服务器实现的是正向代理;当外部请求进⼊系统时,代理服务器把该请求
转发到系统中的某台服务器上,对外部请求来说,与之交互的只有代理服务器,此时代理服务器实现的是反向代理。简单来说,正向代理是代理服务器代替系统内部来访问外部⽹络的过程,反向代理是外部请求访问系统时通过代理服务器转发到内部服务器的过程。
3. 架构演进
3.1 单机架构
以淘宝作为例⼦。在⽹站最初时,应⽤数量与⽤户数都较少,可以把Tomcat和数据库部署在同⼀台服务器上。浏览器往www.taobao发起请求时,⾸先经过DNS服务器(域名系统)把域名转换为实际IP地址10.102.4.1,浏览器转⽽访问该IP对应的Tomcat。
随着⽤户数的增长,Tomcat和数据库之间竞争资源,单机性能不⾜以⽀撑业务
3.2 第⼀次演进:Tomcat与数据库分开部署
Tomcat和数据库分别独占服务器资源,显著提⾼两者各⾃性能。
随着⽤户数的增长,并发读写数据库成为瓶颈
3.3 第⼆次演进:引⼊本地缓存和分布式缓存
在Tomcat同服务器上或同JVM中增加本地缓存,并在外部增加分布式缓存,缓存热门商品信息或热门商品的html页⾯等。通过缓存能把绝⼤多数请求在读写数据库前拦截掉,⼤⼤降低数据库压⼒。其中涉及的技术包括:使⽤memcached作为本地缓存,使⽤Redis作为分布式缓存,还会涉及缓存⼀致性、缓存穿透/击穿、缓存雪崩、热点数据集中失效等问题。
缓存抗住了⼤部分的访问请求,随着⽤户数的增长,并发压⼒主要落在单机的Tomcat上,响应逐渐变慢
3.4 第三次演进:引⼊反向代理实现负载均衡
在多台服务器上分别部署Tomcat,使⽤反向代理软件(Nginx)把请求均匀分发到每个Tomcat中。此处假设Tomcat最多⽀持100个并
发,Nginx最多⽀持50000个并发,那么理论上Nginx把请求分发到500个Tomcat上,就能抗住50000个并发。其中涉及的技术包括:Nginx、HAProxy,两者都是⼯作在⽹络第七层的反向代理软件,主要⽀持http协议,还会涉及session共享、⽂件上传下载的问题。
反向代理使应⽤服务器可⽀持的并发量⼤⼤增加,但并发量的增长也意味着更多请求穿透到数据库,单机的数据库最终成为瓶颈3.5 第四次演进:数据库读写分离
把数据库划分为读库和写库,读库可以有多个,通过同步机制把写库的数据同步到读库,对于需要查询最新写⼊数据场景,可通过在缓存中多写⼀份,通过缓存获得最新数据。其中涉及的技术包括:Mycat,它是数据库中间件,可通过它来组织数据库的分离读写和分库分表,客户端通过它来访问下层数据库,还会涉及数据同步,数据⼀致性的问题。
业务逐渐变多,不同业务之间的访问量差距较⼤,不同业务直接竞争数据库,相互影响性能
3.6 第五次演进:数据库按业务分库
把不同业务的数据保存到不同的数据库中,使业务之间的资源竞争降低,对于访问量⼤的业务,可以部署更多的服务器来⽀撑。这样同时导致跨业务的表⽆法直接做关联分析,需要通过其他途径来解决,但这不是本⽂讨论的重点,有兴趣的可以⾃⾏搜索解决⽅案。
随着⽤户数的增长,单机的写库会逐渐会达到性能瓶颈
3.7 第六次演进:把⼤表拆分为⼩表
⽐如针对评论数据,可按照商品ID进⾏hash,路由到对应的表中存储;针对⽀付记录,可按照⼩时创建表,每个⼩时表继续拆分为⼩表,使⽤⽤户ID或记录编号来路由数据。只要实时操作的表数据量⾜够⼩,请求能够⾜够均匀的分发到多台服务器上的⼩表,那数据库就能通过⽔平扩展的⽅式来提⾼性能。其中前⾯提到的Mycat也⽀持在⼤表拆分为⼩表情况下的访问控制。
这种做法显著的增加了数据库运维的难度,对DBA的要求较⾼。数据库设计到这种结构时,已经可以称为分布式数据库,但是这只是⼀个逻辑的数据库整体,数据库⾥不同的组成部分是由不同的组件单独来实现的,如分库分表的管理和请求分发,由Mycat实现,SQL的解析由单机的数据库实现,读写分离可能由⽹关和消息队列来实现,查询结果的汇总可能由数据库接⼝层来实现等等,这种架构其实是MPP(⼤规模并⾏处理)架构的⼀类实现。
⽬前开源和商⽤都已经有不少MPP数据库,开源中⽐较流⾏的有Greenplum、TiDB、Postgresql XC、HAWQ等,商⽤的如南⼤通⽤的GBase、睿帆科技的雪球DB、华为的LibrA等等,不同的MPP数据库的侧重点也不⼀样,如TiDB更侧重于分布式OLTP场景,Greenplum更侧重于分布式OLAP场景,这些MPP数据库基本都提供了类似Postgresql、Oracle、MySQL那样的SQL标准⽀持能⼒,能把⼀个查询解析为分布式的执⾏计划分发到每台机器上并⾏执⾏,最终由数据库本⾝汇总数据进⾏返回,也提供了诸如权限管理、分库分表、事务、数据副本等能⼒,并且⼤多能够⽀持100个节点以上的集,⼤⼤降低了数据库运维的成本,并且使数据库也能够实现⽔平扩展。
数据库和Tomcat都能够⽔平扩展,可⽀撑的并发⼤幅提⾼,随着⽤户数的增长,最终单机的Nginx会成为瓶颈
3.8 第七次演进:使⽤LVS或F5来使多个Nginx负载均衡
由于瓶颈在Nginx,因此⽆法通过两层的Nginx来实现多个Nginx的负载均衡。图中的LVS和F5是⼯作在⽹络第四层的负载均衡解决⽅案,其中LVS是软件,运⾏在操作系统内核态,可对TCP请求或更⾼层级的⽹络协议进⾏转发,因此⽀持的协议更丰富,并且性能也远⾼于Nginx,可假设单机的LVS可⽀持⼏⼗万个并发的请求转发;F5是⼀种负载均衡硬件,与LVS提供的能⼒类似,性能⽐LVS更⾼,但价
格昂贵。由于LVS是单机版的软件,若LVS所在服务器宕机则会导致整个后端系统都⽆法访问,因此需要有备⽤节点。可使⽤keepalived软件模拟出虚拟IP,然后把虚拟IP绑定到多台LVS服务器上,浏览器访问虚拟IP时,会被路由器重定向到真实的LVS服务器,当主LVS服务器宕机时,keepalived软件会⾃动更新路由器中的路由表,把虚拟IP重定向到另外⼀台正常的LVS服务器,从⽽达到LVS服务器⾼可⽤的效果。
此处需要注意的是,上图中从Nginx层到Tomcat层这样画并不代表全部Nginx都转发请求到全部的Tomcat,在实际使⽤时,可能会是⼏个Nginx下⾯接⼀部分的Tomcat,这些Nginx之间通过keepalived实现⾼可⽤,其他的Nginx接另外的Tomcat,这样可接⼊的Tomcat数量就能成倍的增加。
由于LVS也是单机的,随着并发数增长到⼏⼗万时,LVS服务器最终会达到瓶颈,此时⽤户数达到千万甚⾄上亿级别,⽤户分布在不同的地区,与服务器机房距离不同,导致了访问的延迟会明显不同
3.9 第⼋次演进:通过DNS轮询实现机房间的负载均衡
在DNS服务器中可配置⼀个域名对应多个IP地址,每个IP地址对应到不同的机房⾥的虚拟IP。当⽤户访问www.taobao时,DNS服务器
会使⽤轮询策略或其他策略,来选择某个IP供⽤户访问。此⽅式能实现机房间的负载均衡,⾄此,系统可做到机房级别的⽔平扩展,千万级到亿级的并发量都可通过增加机房来解决,系统⼊⼝处的请求并发量不再是问题。
随着数据的丰富程度和业务的发展,检索、分析等需求越来越丰富,单单依靠数据库⽆法解决如此丰富的需求
3.10 第九次演进:引⼊NoSQL数据库和搜索引擎等技术
当数据库中的数据多到⼀定规模时,数据库就不适⽤于复杂的查询了,往往只能满⾜普通查询的场景。对于统计报表场景,在数据量⼤时不⼀定能跑出结果,⽽且在跑复杂查询时会导致其他查询变慢,对于全⽂检索、可变数据结构等场景,数据库天⽣不适⽤。因此需要针对特定的场景,引⼊合适的解决⽅案。如对于海量⽂件存储,可通过分布式⽂件系统HDFS解决,对于key value类型的数据,可通过HBase和Redis等⽅案解决,对于全⽂检索场景,可通过搜索引擎如ElasticSearch解决,对于多维分析场景,可通过Kylin或Druid等⽅案解决。
常见mpp数据库当然,引⼊更多组件同时会提⾼系统的复杂度,不同的组件保存的数据需要同步,需要考虑⼀致性的问题,需要有更多的运维⼿段来管理这些组件等。
引⼊更多组件解决了丰富的需求,业务维度能够极⼤扩充,随之⽽来的是⼀个应⽤中包含了太多的业务代码,业务的升级迭代变得困难
3.11 第⼗次演进:⼤应⽤拆分为⼩应⽤
按照业务板块来划分应⽤代码,使单个应⽤的职责更清晰,相互之间可以做到独⽴升级迭代。这时候应⽤之间可能会涉及到⼀些公共配置,可以通过分布式配置中⼼Zookeeper来解决。
不同应⽤之间存在共⽤的模块,由应⽤单独管理会导致相同代码存在多份,导致公共功能升级时全部应⽤代码都要跟着升级
3.12 第⼗⼀次演进:复⽤的功能抽离成微服务
如⽤户管理、订单、⽀付、鉴权等功能在多个应⽤中都存在,那么可以把这些功能的代码单独抽取出来形成⼀个单独的服务来管理,这样的服务就是所谓的微服务,应⽤和服务之间通过HTTP、TCP或RPC请求等多种⽅式来访问公共服务,每个单独的服务都可以由单独的团队来管理。此外,可以通过Dubbo、SpringCloud等框架实现服务治理、限流、熔断、降级等功能,提⾼服务的稳定性和可⽤性。
不同服务的接⼝访问⽅式不同,应⽤代码需要适配多种访问⽅式才能使⽤服务,此外,应⽤访问服务,服务之间也可能相互访
问,调⽤链将会变得⾮常复杂,逻辑变得混乱
3.13 第⼗⼆次演进:引⼊企业服务总线ESB屏蔽服务接⼝的访问差异
通过ESB统⼀进⾏访问协议转换,应⽤统⼀通过ESB来访问后端服务,服务与服务之间也通过ESB来相互调⽤,以此降低系统的耦合程度。这种单个应⽤拆分为多个应⽤,公共服务单独抽取出来来管理,并使⽤企业消息总线来解除服务之间耦合问题的架构,就是所谓的SOA(⾯向服务)架构,这种架构与微服务架构容易混淆,因为表现形式⼗分相似。个⼈理解,微服务架构更多是指把系统⾥的公共服务抽取出来单独运维管理的思想,⽽SOA架构则是指⼀种拆分服务并使服务接⼝访问变得统⼀的架构思想,SOA架构中包含了微服务的思想。
业务不断发展,应⽤和服务都会不断变多,应⽤和服务的部署变得复杂,同⼀台服务器上部署多个服务还要解决运⾏环境冲突的问题,此外,对于如⼤促这类需要动态扩缩容的场景,需要⽔平扩展服务的性能,就需要在新增的服务上准备运⾏环境,部署服务等,运维将变得⼗分困难
3.14 第⼗三次演进:引⼊容器化技术实现运⾏环境隔离与动态服务管理
⽬前最流⾏的容器化技术是Docker,最流⾏的容器管理服务是Kubernetes(K8S),应⽤/服务可以打包为Docker镜像,通过K8S来动态分发和部署镜像。Docker镜像可理解为⼀个能运⾏你的应⽤/服务的最⼩的操作系统,⾥⾯放着应⽤/服务的运⾏代码,运⾏环境根据实际的需要设置好。把整个“操作系统”打包为⼀个镜像后,就可以分发到需要部署相关服务的机器上,直接启动Docker镜像就可以把服务起起来,使服务的部署和运维变得简单。
在⼤促的之前,可以在现有的机器集上划分出服务器来启动Docker镜像,增强服务的性能,⼤促过后就可以关闭镜像,对机器上的其他服务不造成影响(在3.14节之前,服务运⾏在新增机器上需要修改系统配置来适配服务,这会导致机器上其他服务需要的运⾏环境被破坏)。
使⽤容器化技术后服务动态扩缩容问题得以解决,但是机器还是需要公司⾃⾝来管理,在⾮⼤促的时候,还是需要闲置着⼤量的机器资源来应对⼤促,机器⾃⾝成本和运维成本都极⾼,资源利⽤率低
3.15 第⼗四次演进:以云平台承载系统
系统可部署到公有云上,利⽤公有云的海量机器资源,解决动态硬件资源的问题,在⼤促的时间段⾥,在云平台中临时申请更多的资源,结合Docker和K8S来快速部署服务,在⼤促结束后释放资源,真正做到按需付费,资源利⽤率⼤⼤提⾼,同时⼤⼤降低了运维成本。
所谓的云平台,就是把海量机器资源,通过统⼀的资源管理,抽象为⼀个资源整体,在之上可按需动态申请硬件资源(如CPU、内存、⽹络等),并且之上提供通⽤的操作系统,提供常⽤的技术组件(如Hadoop技术栈,MPP数据库等)供⽤户使⽤,甚⾄提供开发好的应⽤,⽤户不需要关系应⽤内部使⽤了什么技术,就能够解决需求(如⾳视频转码服务、邮件服务、个⼈博客等)。在云平台中会涉及如下⼏个概念:
IaaS:基础设施即服务。对应于上⾯所说的机器资源统⼀为资源整体,可动态申请硬件资源的层⾯;
PaaS:平台即服务。对应于上⾯所说的提供常⽤的技术组件⽅便系统的开发和维护;
SaaS:软件即服务。对应于上⾯所说的提供开发好的应⽤或服务,按功能或性能要求付费。
⾄此,以上所提到的从⾼并发访问问题,到服务的架构和系统实施的层⾯都有了各⾃的解决⽅案,但同时也应该意识到,在上⾯的介绍中,其实是有意忽略了诸如跨机房数据同步、分布式事务实现等等的实际问题,这些问题以后有机会再拿出来单独讨论
4. 架构设计总结
架构的调整是否必须按照上述演变路径进⾏?
不是的,以上所说的架构演变顺序只是针对某个侧⾯进⾏单独的改进,在实际场景中,可能同⼀时间会有⼏个问题需要解决,或者可能先达到瓶颈的是另外的⽅⾯,这时候就应该按照实际问题实际解决。如在政府类的并发量可能不⼤,但业务可能很丰富的场景,⾼并发就不是重点解决的问题,此时优先需要的可能会是丰富需求的解决⽅案。
对于将要实施的系统,架构应该设计到什么程度?
对于单次实施并且性能指标明确的系统,架构设计到能够⽀持系统的性能指标要求就⾜够了,但要留有扩展架构的接⼝以便不备之需。对于不断发展的系统,如电商平台,应设计到能满⾜下⼀阶段⽤户量和性能指标要求的程度,并根据业务的增长不断的迭代升级架构,以⽀持更⾼的并发和更丰富的业务。
服务端架构和⼤数据架构有什么区别?
所谓的“⼤数据”其实是海量数据采集清洗转换、数据存储、数据分析、数据服务等场景解决⽅案的⼀个统称,在每⼀个场景都包含了多种可选的技术,如数据采集有Flume、Sqoop、Kettle等,数据存储有
分布式⽂件系统HDFS、FastDFS,NoSQL数据库HBase、MongoDB等,数据分析有Spark技术栈、机器学习算法等。总的来说⼤数据架构就是根据业务的需求,整合各种⼤数据组件组合⽽成的架构,⼀般会提供分布式存储、分布式计算、多维分析、数据仓库、机器学习算法等能⼒。⽽服务端架构更多指的是应⽤组织层⾯的架构,底层能⼒往往是由⼤数据架构来提供。
有没有⼀些架构设计的原则?
N+1设计。系统中的每个组件都应做到没有单点故障;
回滚设计。确保系统可以向前兼容,在系统升级时应能有办法回滚版本;
禁⽤设计。应该提供控制具体功能是否可⽤的配置,在系统出现故障时能够快速下线功能;
监控设计。在设计阶段就要考虑监控的⼿段;
多活数据中⼼设计。若系统需要极⾼的⾼可⽤,应考虑在多地实施数据中⼼进⾏多活,⾄少在⼀个机房断电的情况下系统
依然可⽤;
采⽤成熟的技术。刚开发的或开源的技术往往存在很多隐藏的bug,出了问题没有商业⽀持可能会是⼀个灾难;
资源隔离设计。应避免单⼀业务占⽤全部资源;
架构应能⽔平扩展。系统只有做到能⽔平扩展,才能有效避免瓶颈问题;
⾮核⼼则购买。⾮核⼼功能若需要占⽤⼤量的研发资源才能解决,则考虑购买成熟的产品;
使⽤商⽤硬件。商⽤硬件能有效降低硬件故障的机率;
快速迭代。系统应该快速开发⼩功能模块,尽快上线进⾏验证,早⽇发现问题⼤⼤降低系统交付的风险;
⽆状态设计。服务接⼝应该做成⽆状态的,当前接⼝的访问不依赖于接⼝上次访问的状态。
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。
发表评论