架构基础-演进之路

​<<学习笔记,内容从不同来源总结汇集,文章末尾说明出处,如有需要可以访问原文章>>

  在软件定义设备的今天,计算机技术与每个人息息相关,出于学习与科普的目的,对软硬件架构的演进及每次演进解决的问题进行总结,参考资料最后备注。

  用户在使用网络软件时,在设备上进行的操作都是触达企业的服务器端再接受反馈实现与软件背后提供相关服务的企业实体进行互动的,计算机世界的完整过程用一个极简的MVP架构示例如下。

  简单的MVP单体式架构能够实现提供软件服务的效果,几百人使用没有问题,随着用户和请求的增加,简单架构的处理能力会遇到瓶颈,用户体验会十分不好,因此每次遇到相关瓶颈都会出现架构演进来适应环境解决问题。系统架构会涉及以下概念,分布式\高可用\集群\负载均衡\正向代理和方向代理,在最后注释。

遇到的瓶颈可以分为13类,按用户数量逐渐增多的趋势列示如下:

以淘宝作为例子,在网站最初时,应用数量与用户数都较少,可以把Tomcat和数据库部署在同一台服务器上。浏览器往www.taobao.com发起请求时,首先经过DNS服务器(域名系统)把域名转换为实际IP地址10.102.4.1,浏览器转而访问该IP对应的Tomcat。

随着用户数的增长,Tomcat和数据库之间竞争资源,单机性能不足以支撑业务。

1>第一次演进,发布在tomcat上的软件运行过程中与数据库争夺资源,需要从同一台服务器中分离,做分布式架构。

2>第二次演进,高并发访问数据库瓶颈,在Tomcat同服务器上或通JVM中增加本地缓存,并在外部增加分布式缓存,缓存热门商品信息或HTML页面。通过缓存把绝大多数请求在读写数据库前拦截掉,降低数据库压力。相关技术包括:使用memcached作为本地缓存,使用Redis作为分布式缓存,还会涉及缓存一致性、缓存穿透/击穿、缓存雪崩、热点数据集中时效等问题。

3>第三次演进,网络层瓶颈,一个tomcat出来不了大量并发用户访问,引入反向代理实现用户访问的负载均衡。在多台服务器上分别部署Tomcat,使用反向代理软件(Nginx)把请求均匀分发到每个Tomcat中,比如Nginx支持50000个并发,Tomcat支持100个并发,理论上Nginx把请求分发到500个Tomcat上,就能抗住50000个并发。其中涉及的技术包括:Nginx、HAProxy,两者都是工作在网络第七层的反向代理软件,主要支持HTTP协议,还涉及session共享,文件上传下载的问题。反向代理使应用服务器可支持的并发量大大增加,但并发量的增长也意味着更多请求穿透到数据库,单机的数据库最终成为瓶颈。

4>第四次演进,单机数据库再次遇到瓶颈,数据库读写分离。把数据库划分为读库和写库,读库可以有多个,通过同步机制把写库的数据同步到读库,对于需要查询最新写入数据的场景,可通过在缓存中多写一份,通过缓存获得最新数据。其中涉及的技术包括:MyCAT,他是数据库中间件,可通过它来组织数据库的分离读写和分库分表,客户端通过它来访问下层数据库,还会涉及数据同步,数据一致性的问题。

5>第五次演进,读写分离的数据库遇到瓶颈。业务逐渐变多,不同业务访问量差异较大,不同业务竞争数据库,将数据库按业务分库。把不同业务的数据保存到不同的数据库中,使业务之间的资源竞争降低,对于访问量大的业务,可以部署更多的服务器来支撑。这样同时导致跨业务的表无法直接做关联分析,需要通过其他途径来解决。

6>第六次演进,随着用户数的增长,单机的写库会逐渐达到性能瓶颈,把大表拆分为小表。比如针对评论数据,可按照商品ID进行HASH,路由到对应的表中存储;针对支付记录可以按照小时创建表,每个小时表继续拆分为小表,使用用户ID或记录编号来路由数据,其实对于路由而言我们要做的就是过滤出有效的后缀减少不必要的性能消耗。只要实时操作的表数据量足够小,请求能够足够均匀的分发到多台服务器上的小表,那数据库就能通过水平扩展的方式来提高性能。其中前面提到的Mycat也支持把打标拆分为小表情况下的访问控制。

这种做法显著的增加了数据库运维的难度,对DBA的要求较高。数据库设计到这种结构时,已经可以称为分布式数据库,但在这只是一个逻辑的数据库整个体,数据库里不同的组成部分是由不同的组件单独来实现的,如分库分表的管理和请求分发,是由Mycat实现,SQL的解析有单机的数据库实现,读写分离可能由网关和消息队列来实现,查询结果的汇总还可能由数据库接口层来实现等等,这种架构其实是MPP(大规模并行处理)架构的一类实现。

目前开源和商用都已经有不少MPP数据库,开源中比较流行的有Greenplum、TiDB、PostgresqlXC、HAWQ等,商用的如南大通用的GBase、睿帆科技的雪球DB、华为的LibrA等,不同的MPP数据库基本都提供了类似PostgreSQL、Oracle、MySQL那样的SQL标准支持能力,能把一个查询接信息为分布式的执行计划分发到每台机器上执行,最终由数据库本身汇总数据进行返回,也提供了诸如权限管理、分库分表、事物、数据副本等能力,并且大多数能够支持100个节点以上的集群,大大降低了数据库的运维成本并且使数据库也能够实现水平扩展。

数据库和Tomcat都能够实现水平扩展,可支撑的并发大幅提高,随着用户数的增长,最终单机的Nginx会成为瓶颈。

7>第七次演进,网络层并发访问Nginx再次成为瓶颈,使用LVS或F5来使多个Nginx负载均衡。由于瓶颈在Nginx,因此无法通过两层Ningx来实现多个Ningx的负载均衡。途中的LVS和F5是工作在网络第四层的负载均衡解决方案,其中LVS是软件,运行在操作系统内核态,可对TCP请求或更高级的网络协议进行转发,因此支持的协议更丰富,并且性能也远高于Nginx,可假设单机的LVS可支持几十万个并发的请求转发;F5是一种负载均衡硬件,与LVS能力类似,性能比LVS更高,但价格昂贵。由于LVS是单机版的软件,若LVS所在服务器宕机则会导致整个后端系统都无法访问,因此需要有备用节点。可使用keepalived软件模拟出虚拟IP,然后把虚拟IP绑定到多台LVS服务器上,浏览器访问虚拟IP时,会被路由器重定向到真实的LVS服务器,从而达到LVS服务器高可用的效果。

    此处要注意的是,上图中从Nginx层到tomcat层这样画并不代表全部Nginx都转发请求到全部的Tomcat,在实际使用时,可能会是几个Nginx下面接一部分的Tomcat,这些写Nginx之间通过keepalived实现高可用,其他的Nginx接另外的Tomcat,这样可接入的Tomcat数量就能成倍的增加。

    由于LVS也是单机的,随着并发数增长到几十万时,LVS服务器最终会达到瓶颈,此时用户数达到千万甚至上亿级别,用户分布在不同的地区,与服务器机房距离不同,导致了访问的延迟会明显不同。

8>第八次演进,并发访问数量级瓶颈解决后,还会遇到不同地区用户访问总部机房的延迟不同的问题。通过DNS轮询实现机房间的负载均衡。

    在DNS服务器中可配置一个域名对应多个IP地址,每个IP地址对应到不同的机房里的虚拟IP。当用户访问www.taobao.com时,DNS服务器会使用轮询策略,来选择某个IP供用户访问。此方式能实现机房间的负载均衡,至此,系统可做到机房级别的水平扩展,千万级到亿级的并发量都可以通过增加机房来解决,系统入口处的请求并发量不再是问题。

    随着数据的丰富程度和业务的发展,检索、分析等需求越来越丰富,单单依靠数据库无法解决如此丰富的需求。

9>第九次演进,应对检索、分析等越来越丰富的需求,引入NoSQL数据库和搜索引擎等技术。

    当数据库中的数据多到一定规模时,数据库就不适用于复杂的查询了,往往只能满足普通查询的场景。对于统计报表场景,在数据量大时不一定能跑出结果,而且在跑复杂查询时会导致其他查询变慢,对于全文检索、可变数据结构等场景,数据库天生不适用。因此需要针对特定场景,引入合适的解决方案。如对于海量文件存储,可通过分布式文件系统HDFS解决,对于key value类型的数据,可通过HBase和Redis等方案解决,对于全文检索场景,可通过搜索引擎如ElasticSearch解决,对于多维分析场景,可通过Kylin或Druid等方案解决。

    当然,引入更多组件同时会提高系统的复杂度,不同的组件保存的数据需要同步,需要考虑一致性的问题,需要有更多的运维手段来管理这些写组件等。引入更多组件解决了丰富的需求,业务维度能够极大扩充,随之而来的是一个应用中包含了太多的业务代码,业务的升级迭代变得困难。

10>第十次演进,大应用拆分为小应用,解决在同一个复杂大型应用中业务升级迭代变得困难的问题。

    按照业务板块来划分应用代码,使单个应用的职责更清晰,相互之间可以只做到独立升级迭代。这时候应用之间可能会涉及到一些公共配置,可以通过分布式配置中心ZooKeeper来解决(https://zhuanlan.zhihu.com/p/62526102)。不同应用之间存在共用的模块,由应用单独管理会导致相同代码存在多份,导致公共功能升级时全部应用代码都要跟着升级。

11>第十一次演进,复用的功能抽离成微服务。

    如用户管理、订单、支付、鉴权等功能在多个应用中,那么可以把这些功能的代码单独抽取出来形成一个单独的服务来管理,这样的服务就是所谓的微服务,应用和服务之间通过HTTP、TCP或RPC请求等多种方式来访问公共服务,每个单独的服务都可以由单独的团队来管理。此外,可以通过Dubbo(https://baijiahao.baidu.com/s?id=1703812124984901271&wfr=spider&for=pc)、Spring Cloud等框架实现服务治理、限流、熔断、降级等功能,提高服务的稳定性和可用性。

    不同服务的接口访问方式不同,应用代码需要适配多种访问方式才能使用服务,此外,应用访问服务,服务之间也可能相互访问,调用链将会变得非常复杂,逻辑变得混乱。

12>第十二次演进,引入企业服务总线EBS屏蔽服务接口的访问差异。

    通过EBS统一进行访问协议转换,应用统一通过ESB来访问后端服务,服务与服务之间也通过EBS来相互调用,以此降低系统的耦合程度。这种单个应用拆分为多个应用,公共服务单独抽取出来管理,并使用企业消息总线来解除服务之间耦合问题的框架,就是所谓的SOA(面向服务)架构,这种架构与微服务架构容易混淆,因为表现形式十分相似。有一种理解,微服务架构更多是指把系统里的公共服务抽取出来单独运维管理的思想,而SOA架构则是指一种拆分服务并使服务接口访问变得统一的架构思想,SOA架构中包含了微服务思想。

    业务不断发展,应用和服务都会不断变多,应用和服务还要解决运行环境冲突的问题,此外,对于如大促这类需要动态扩缩容的场景,需要水平扩展服务器的性能,就需要在新增的服务器上准备运行环境、部署服务等,运维将变得十分困难。

13>第十三次演进,引入容器化技术实现运行环境隔离与动态服务管理。

    目前最流行的容器化技术是Docker,最流行的容器管理服务是Kuvernetes(K8S),应用/服务可以打包为Docker镜像,通过Kubernetes来动态分发和部署镜像。Docker镜像可以理解为一个能运行你的应用/服务的最小的操作系统,里面放着应用/服务的运行代码,运行环境根据实际的需要设置好。把整个“操作系统”打包为一个镜像后,就可以分发到需要部署相关服务的机器上,直接启动Docker镜像就可以把服务启起来,使服务的部署和运维变得简单。

    在大促之前,可以在现有的机器集群上划分出服务器来启动Docker镜像,增强服务的性能,大促过后就可以关闭镜像,对机器上的其他服务不造成影响(在本节之前,服务运行在新增机器上需要修改系统配置来适配服务,这会导致机器上其他服务需要的运行环境被破坏)。

    使用容器化技术后服务动态扩缩容问题得以解决,但机器还是需要公司自身来管理,在非大促的时候,还是需要闲置着大量的机器资源来应对大促,机器自身成本和运维成本都很高,资源利用率低。

14>第十四次演进,以云平台承载系统。

系统可部署到公有云上,利用公有云的海量机器资源,解决动态硬件资源的问题,在大促的时间段里,在云平台中临时申请更多的资源,结合Docker和K8S来快速部署服务,在大促结束后释放资源,真正做到按需付费,资源利用率大大提高,同时大大降低了运维成本。

    所谓的云平台,就是把海量机器资源,通过统一的资源管理,抽象为一个资源整体,在之上可以按需动态申请硬件资源(如CPU、内存、网络等),并且之上提供通用的操作系统,提供常用的技术组件(如Hadoop技术栈,MPP数据库等)供用户使用,甚至提供开发好的应用,用户不需要关心应用内部使用了什么技术,就能够解决需求(如音视频转码服务、邮件服务、个人博客等)。在云平台中会涉及如下几个概念:

IaaS:基础设施即服务。对应于上面所说的机器资源统一为资源整体,可动态申请硬件资源的层面。

PaaS;平台即服务。对应于上面所说的提供常用的技术组件方便系统的开发和维护。

SaaS:软件即服务。对应于上面所说的提供开发好的应用或服务,按功能或性能要求付费。

    至此,以上所提到的从高并发访问问题,到服务的架构和系统实施的层面都有了各自的解决方案,但同时也应该意识到,在上面的介绍中,其实有意忽略了诸如跨机房数据同步、分布式事务实现等等实际问题,这些问题以后有机会再拿出来单独讨论。

后记MPP

主要参考MPP架构是什么?看这一篇就行了。。_coding-now的博客-优快云博客_mpp架构

系统架构层面的服务器分类,如下三类:

SMP- Symmetric Multi-Processor 对称多处理器结构

NUMA -Non-Uniform Memory Access 非一致存储访问结构

MPP -Massive-Parallel Processing 海量并行处理架构

SMP- Symmetric Multi-Processor 对称多处理器结构

特点

Uniform Memory Access

共享存储:cpu,内存,io

不足

扩展能力有限

内存总线限制访问内存的效率

NUMA -Non-Uniform Memory Access 非一致存储访问结构

特点

拥有多个CPU模块,每个模块由多个CPU组成,有独立的本地内存,io槽口

节点之间通过互联模块进行连接和信息交互:同一台物理服务器内部实现,cpu异地访问时必须等待

较好解决SMP系统的扩展问题

不足

互联模块访问效率和本地内存访问不在一个效率层级,系统性能无法和cpu数线性增加

MPP -Massive-Parallel Processing 海量并行处理架构

另一种系统扩展的方式

特点

SMP组合的方式:每台SMP服务器(节点)通过节点互联网络连接。

节点互联网络:MPP内部使用,对用户透明,在不同SMP服务器外部通过IO实现,每个节点只访问本地内存和存储,节点信息交互和节点本身是并行处理的。

每个节点只访问本地资源(内存,存储),Share Nothing结构。

对等节点:所有数据节点角色一样。可以提升并行计算能力

汇总节点:数据汇总节点的稳定性,可用性影响整体的性能

不足

复杂的机制来调度和平衡各个节点的负载和并行处理过程。

短板效应。

如果一个节点总是执行的慢于集群中其他的节点,整个集群的性能就会受限于这个故障节点的执行速度(所谓木桶的短板效应),无论集群有多少节点,都不会有所提高。

当MPP系统中某个节点的RAID由于磁盘问题导致的性能很慢,或者硬件或者系统问题带来的CPU性能问题等等,都会产生这样的问题。所有的MPP系统都面临这样的问题。

MPP集群规模不能过大。

并发度不能过高,数据查询汇总节点的并发查询数限制在10+数量级,用户数有限制。

----以下摘抄补充-----

https://blog.youkuaiyun.com/gl_windhome/article/details/113789619

4、MPP架构与Hadoop

其实MPP架构的关系型数据库与Hadoop的理论基础是极其相似的,都是将运算分布到节点中独立运算后进行结果合并。个人觉得区别仅仅在于前者跑的是SQL,后者底层处理则是MapReduce程序。

是我们会经常听到对于MPP而言,虽说是宣称也可以横向扩展Scale OUT,但是这种扩展一般是扩到100左右,而Hadoop一般可以扩展1000+,这也是经常被大家拿来区分这两种技术的一个说词。

这是为什么呢?其实可以从CAP理论上来找到一些理由。因为MPP始终还是DB,一定要考虑C(Consistency),其次考虑 A(Availability),最后才在可能的情况下尽量做好P(Partition-tolerance)。而Hadoop就是为了并行处理和存储设计的,所有数据都是以文件存储,所以优先考虑的是P,然后是A,最后再考虑C。所以后者的可扩展性当然好于前者。

以下几个方面制约了MPP数据库的扩展

1、高可用:MPP DB是通过Hash计算来确定数据行所在的物理机器(而Hadoop无需此操作),对存储位置的不透明导致MPP的高可用很难办。

2、并行任务:数据是按照Hash来切分了,但是任务没有。每个任务,无论大小都要到每个节点去走一圈。

3、文件系统:数据切分了,但是文件数没有变少,每个表在每个节点上一定有一到多个文件。同样节点数越多,存储的表就越多,导致每个文件系统上有上万甚至十万多个文件。

4、网络瓶颈:MPP强调对等的网络,点对点的连接也消耗了大量的网络带宽,限制了网络上的线性扩展(想象一台机器可能要给1000台机器发送信息)。更多的节点并没有提供更高的网络带宽,反而导致每个组节点间平均带宽降低。

5、其他关系数据库的枷锁:比如锁、日志、权限、管理节点瓶颈等均限制了MPP规模的扩大。

但是MPP数据库有对SQL的完整兼容和一些事务处理功能,对于用户来说,在实际的使用场景中,如果数据扩展需求不是特别大,需要的处理节点不多,数据都是结构化数据,习惯使用传统RDBMS的很多特性的场景,可以考虑MPP如Greenplum/Gbase等。

但是如果有很多非结构化数据,或者数据量巨大,有需要扩展到成百上千个数据节点需求的,这个时候Hadoop是更好的选择。

主体参考(学习笔记):微信公众号分布式实验室

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值