
分布式
文章平均质量分 83
灯盏菜
上火你就喝灯盏菜啊
展开
-
分布式系统的经典基础理论 (转载)
分布式系统的经典基础理论 原文分布式系统设计理念分布式系统架构的第一原则是不要分布!这句话看似矛盾实则揭露了分布式系统的很多特征。分布式系统的目标与要素分布式系统的目标是提升系统的整体性能和吞吐量另外还要尽量保证分布式系统的容错性(假如增加10台服务器才达到单机运行效果2倍左右的性能,那么这个分布式系统就根本没有存在的意义)。即使采用了分布式系统,我们也要尽力运用并发编程、高性...转载 2019-02-13 09:13:01 · 386 阅读 · 0 评论 -
关于大型网站系统架构你不得不懂的10个问题(转载)
转载1. 你使用过哪些组件或者方法来提升网站性能,可用性以及并发量提高硬件能力、增加系统服务器。(当服务器增加到某个程度的时候系统所能提供的并发访问量几乎不变,所以不能根本解决问题) 使用缓存(本地缓存:本地可以使用JDK自带的 Map、Guava Cache.分布式缓存:Redis、Memcache.本地缓存不适用于提高系统并发量,一般是用处用在程序中。比如Spring是如何实现单例的...翻译 2019-03-25 22:52:46 · 795 阅读 · 0 评论 -
【转载】Redlock(redis分布式锁)原理分析
转载 Redlock(redis分布式锁)原理分析Redlock:全名叫做 Redis Distributed Lock;即使用redis实现的分布式锁;使用场景:多个服务间保证同一时刻同一时间段内同一用户只能有一个请求(防止关键业务出现并发攻击);官网文档地址如下:https://redis.io/topics/distlock这个锁的算法实现了多redis实例的情况...转载 2019-04-23 12:17:06 · 964 阅读 · 0 评论 -
【转载】Redis高可用技术解决方案
转载史上最全Redis高可用技术解决方案大全Redis各种使用方式的优缺点:1、Redis单副本Redis 单副本,采用单个Redis节点部署架构,没有备用节点实时同步数据,不提供数据持久化和备份策略,适用于数据可靠性要求不高的纯缓存业务场景。优点:架构简单、部署方便。 高性价比,当缓存使用时无需备用节点(单实例可用性可以用supervisor或cronta...转载 2019-04-23 16:49:01 · 186 阅读 · 0 评论 -
【面试】redis缓存穿透、缓存击穿、缓存雪崩区别和解决方案
设计一个缓存系统,不得不要考虑的问题就是:缓存穿透、缓存击穿与失效时的雪崩效应。前台请求,后台先从缓存中取数据,取到直接返回结果,取不到时从数据库中取,数据库取到更新缓存,并返回结果,数据库也没取到,那直接返回空结果。缓存穿透描述: 缓存穿透是指缓存和数据库中都没有的数据,而用户不断发起请求。由于缓存是不命中时被动写的,并且出于容错考虑,如果从存储层查不到数据...转载 2019-04-23 18:40:03 · 90366 阅读 · 23 评论 -
分库分表--如何做到永不迁移数据和避免热点
转载分库分表?如何做到永不迁移数据和避免热点?1、前言中大型项目中,一旦遇到数据量比较大,小伙伴应该都知道就应该对数据进行拆分了。有垂直和水平两种。垂直拆分比较简单,也就是本来一个数据库,数据量大之后,从业务角度进行拆分多个库。如下图,独立的拆分出订单库和用户库。水平拆分的概念,是同一个业务数据量大之后,进行水平拆分。上图中订单数据达到了4000万,我们...转载 2019-04-29 15:09:20 · 1430 阅读 · 0 评论 -
【面试】分布式事务方案与分布式系统一致性
分布式事务就是指事务的参与者、支持事务的服务器、资源服务器以及事务管理器分别位于不同的分布式系统的不同节点之上。就是一次大的操作由不同的小操作组成,这些小的操作分布在不同的服务器上,且属于不同的应用,分布式事务需要保证这些小操作要么全部成功,要么全部失败。本质上来说,分布式事务就是为了保证不同数据库的数据一致性。分布式系统的经典基础理论 CAP 理论对于一个分布式计算系统来说,不可...转载 2019-04-24 21:04:45 · 948 阅读 · 1 评论 -
【转载】分布式一致性算法、分布式存储、分布式计算
分布式一致性算法早在1898年就诞生了著名的Paxos经典算法(Zookeeper就采用了Paxos算法的近亲兄弟Zab算法),但由于Paxos算法非常难以理解、实现、排错。所以不断有人尝试简化这一算法,直到2013年才有了重大突破:斯坦福的Diego Ongaro、John Ousterhout以易懂性为目标设计了新的一致性算法——Raft算法,并发布了对应的论文《In Search...转载 2019-04-25 16:55:54 · 246 阅读 · 0 评论