Zookeeper

本文深入解析Zookeeper的原理、特点及其在数据发布与订阅、负载均衡、命名服务、分布式通知与协调等场景中的应用。Zookeeper作为分布式应用程序协调服务,提供了一致性的数据存储与协调机制。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Zookeeper

一,Zookeeper是什么,用来干什么?

Zookeeper是一个开源的分布式应用程序协调服务。

是Google的Chubby一个开源的实现,是Hadoop和Hbase的重要组件

​ 大部分应用需要开发私有的一个主控,协调器或控制器的协调程序来管理物理分布的子进程(如资源,任务的分配等)。而协调程序的反复编写浪费,且难以形成通用,伸缩性好的协调器,所以,zookeeper应运而生。

​ 它是一个为分布式应用提供一致性服务的软件。提供的功能包括:配置维护域名服务分布式同步组服务等。

Zookeeper:提供通用的分布式锁服务,用以协调分布式应用。

二,zookeeper的角色

在这里插入图片描述

领导者(Leader) : 负责进行投票的发起和决议,更新系统状态

学习者(learner): 包括跟随者(follower)和观察者(ObServer)

​ follower用于接收客户端请求并向客户端返回结果,在选leader时,参与投票

​ observer可以接受客户端的连接,将写的请求转发给leader,但observer不参加投票的过程,只同步leader的状态,observer的目的是为了扩展系统,提高读取速率。

zookeeper需要保证高可用和强一致性

​ 为了支持更多的客户端,需要增加更多的server;

​ server增多,投票阶段延迟增大,影响性能;

​ 权衡伸缩性和高吞吐率,引入了ObServer(不参与投票);

三,zookeeper的特点

3.1 最终一致性

为客户端展示同一个视图,这是zookeeper中一个非常重要的功能

3.2 可靠性

如果消息被一台服务器接收,那么它将被所有的服务器接收

3.3 实时性

zookeeper不能保证两个客户端能同时得到刚更新的数据,如果需要最新数据,应该在读数据之前

调用 sync() 接口。

3.4 独立性

各个client之间互不干预

3.5 原子性

更新只能成功或者失败,没有中间状态

3.6 顺序性

所有server,同一消息发布顺序一致。

四,zookeeper的安装配置

4.1 下载安装包解压
4.2 配置zoo.cfg文件

在 conf 文件下 拷贝 zoo_simple.cfg 命名为 zoo.cfg

修改zoo.cfg文件

tickTime=2000  发送心跳的间隔时间,单位:毫秒
dataDir=/opt/data 
dataLogDir=/Users/zdandljb/zookeeper/dataLog
clientPort=2181    户端连接 Zookeeper 服务器的端口,Zookeeper 会监听这个端口,接受客户端的访问请求。
initLimit=5
syncLimit=2
server.1=node01:2888:3888
server.2=node02:2888:3888
server.3=node03:2888:3888

initLimit: 这个配置项是用来配置 Zookeeper 接受客户端(这里所说的客户端是 Zookeeper 服务器集群中连接到 Leader 的 Follower 服务器)初始化连接时最长能忍受多少个心跳时间间隔数。当已经超过 5 个心跳的时间(也就是 tickTime)长度后 Zookeeper 服务器还没有收到客户端的返回信息,那么表明这个客户端连接失败。总的时间长度就是 5*2000=10 秒

syncLimit:这个配置项标识 Leader 与 Follower 之间发送消息,请求和应答时间长度,最长不能超过多少个 tickTime 的心跳时间长度,总的时间长度就是 2*2000=4 秒

server.A=B:C:D:其 中 A 是一个数字,表示这个是第几号服务器;B 是这个服务器的 ip 地址;C 表示的是这个服务器与集群中的 Leader 服务器交换信息的端口;D 表示的是万一集群中的 Leader 服务器挂了,需要一个端口来重新进行选举,选出一个新的 Leader,

4.3 创建myid文件,

server1机器的内容为:1,server2 机器的内容为:2,server3机器的内容为:3

也就是与服务器的标识相对应

4.4 复制到其他 zk节点
4.5 启动

启动前务必保证防火墙已经关闭

启动命令:

zkServer.sh  start

五,深入了解zookeeper原理

可以看下 paxos 算法,这里不做介绍了…

六,zookeeper的节点及工作原理

工作原理:

​ 1.每个server在内存中存放了一份数据

​ 2.zookeeper启动时,将从实例中选举出一个leader(paxos协议)

​ 3.leader负责处理数据更新等操作

​ 4.当大多数节点server在节点中成功更新数据,才记录一个数据更新成功

zookeeper的核心是原子广播。这个机制保证了数据之间的同步,实现了这个机制的协议叫做

Zab协议

Zab协议有两种模式: 恢复模式广播模式

服务启动或崩溃时,Zab就进入恢复模式,当领导者选举出来以后,且大多数server完成了和

leader的状态同步之后,恢复模式就结束了。

一旦leader和 follower进行了状态同步之后,他就可以开始广播消息了,即进入了广播状态

这时候新加入的节点,会在恢复模式下启动,发现leader后,进行数据的一致和状态的同步后,它也会参与消息广播。Zookeeper服务一直维持在Broadcast状态,直到leader崩溃了或者leader失去了大部分的followers支持.

​ 广播模式需要保证proposal被按顺序处理,因此zk采用了**递增的事务id号(zxid)**来保证。所有的提议(proposal)都在被提出的时候加上了zxid。实现中zxid是一个64位的数字,它高32位是epoch用来标识leader关系是否改变,每次一个leader被选出来,它都会有一个新的epoch。低32位是个递增计数。

​ 当leader崩溃或者leader失去大多数的follower,这时候zk进入恢复模式,恢复模式需要重新选举出一个新的leader,让所有的server都恢复到一个正确的状态。

Znode节点:

类型:短暂和持久两种类型

Znode的类型在创建时确定并且之后不能再修改

短暂znode的客户端会话结束时,zookeeper会将该短暂znode删除,短暂znode不可以有子节点

持久的znode不依赖客户端会话,只有当客户端主动删除,znode才会删除。

四种形式的目录节点:

​ PERSISTENT 持久的

​ PERSISTENT _SEQUENTIAL 持久有序的

​ EPHEMERAL 短暂的

​ EPHEMERAL_SEQUENTIAL 短暂有序的

七,java中操作zookeeper集群

Watcher:

Watcher是zookeeper中的一个核心功能,可以监控目录节点的数据变化以及子目录的变化,

一旦这些状态改变,服务器会通知所有设置在这个目录节点上的watcher,从而每个客户端

很快指到它所关注的目录节点的状态发生变化,从而做出向应的反映

可以设置观察的操作: exists getChildren getData

可以触发观察的操作: create delete setDate

八,zookeeper的应用场景

8.1 数据发布与订阅

​ 顾名思义就是发布者将数据发布到ZK节点上,供订阅者动态获取数据,实现配置信息的集中式管理和动态更新。 例如全局的配置信息,服务式服务框架地址列表等就非常适合使用。

​ · 应用中用到的一些配置信息放到ZK上进行集中管理。这类场景通常是这样:应用在启动的时候会主动来获取一次配置,同时,在节点上注册一个Watcher,这样一来,以后每次配置有更新的时候,都会实时通知到订阅的客户端,从来达到获取最新配置信息的目的。

​ · 分布式搜索服务中,索引的元信息和服务器集群机器的节点状态存放在ZK的一些指定节点,供各个客户端订阅使用。

​ · 分布式日志收集系统。这个系统的核心工作是收集分布在不同机器的日志。收集器通常是按照应用来分配收集任务单元,因此需要在ZK上创建一个以应用名作为path的节点P,并将这个应用的所有机器ip,以子节点的形式注册到节点P上,这样一来就能够实现机器变动的时候,能够实时通知到收集器调整任务分配。

​ · 系统中有些信息需要动态获取,并且还会存在人工手动去修改这个信息的发问。通常是暴露出接口,例如JMX接口,来获取一些运行时的信息。引入ZK之后,就不用自己实现一套方案了,只要将这些信息存放到指定的ZK节点上即可。

注意:在上面提到的应用场景中,有个默认前提是:数据量很小,但是数据的更新可能会比较快的场景。

8.2 负载均衡

​ 这里说的负载均衡是指软负载均衡。在分布式环境中,为了保证高可用性,通常同一个应用或同一个服务的提供方都会部署多份,达到对等服务。而消费者就须要在这些对等的服务器中选择一个来执行相关的业务逻辑,其中比较典型的是消息中间件中的生产者,消费者负载均衡。

​ 消息中间件中发布者和订阅者的负载均衡,linkedin开源的KafkaMQ和阿里开源的metaq都是通过zookeeper来做到生产者、消费者的负载均衡。这里以metaq为例如讲下:

生产者负载均衡:metaq发送消息的时候,生产者在发送消息的时候必须选择一台broker上的一个分区来发送消息,因此metaq在运行过程中,会把所有broker和对应的分区信息全部注册到ZK指定节点上,默认的策略是一个依次轮询的过程,生产者在通过ZK获取分区列表之后,会按照brokerId和partition的顺序排列组织成一个有序的分区列表,发送的时候按照从头到尾循环往复的方式选择一个分区来发送消息。

消费负载均衡:

在消费过程中,一个消费者会消费一个或多个分区中的消息,但是一个分区只会由一个消费者来消费。MetaQ的消费策略是:

· 每个分区针对同一个group只挂载一个消费者。

· 如果同一个group的消费者数目大于分区数目,则多出来的消费者将不参与消费。

· 如果同一个group的消费者数目小于分区数目,则有部分消费者需要额外承担消费任务。

在某个消费者故障或者重启等情况下,其他消费者会感知到这一变化(通过 zookeeper watch消费者列表),然后重新进行负载均衡,保证所有的分区都有消费者进行消费。

8.3命名服务(Naming Service):
命名服务也是分布式系统中比较常见的一类场景。在分布式系统中,通过使用命名服务,客户端应用能够根据指定名字来获取资源或服务的地址,提供者等信息。被命名的实体通常可以是集群中的机器,提供的服务地址,远程对象等等——这些我们都可以统称他们为名字(Name)。其中较为常见的就是一些分布式服务框架中的服务地址列表。通过调用ZK提供的创建节点的API,能够很容易创建一个全局唯一的path,这个path就可以作为一个名称。
阿里巴巴集团开源的分布式服务框架Dubbo中使用ZooKeeper来作为其命名服务,维护全局的服务地址列表,点击这里查看Dubbo开源项目。在Dubbo实现中: 服务提供者在启动的时候,向ZK上的指定节点/dubbo/ s e r v i c e N a m e / p r o v i d e r s 目 录 下 写 入 自 己 的 U R L 地 址 , 这 个 操 作 就 完 成 了 服 务 的 发 布 。 ∗ ∗ 服 务 消 费 者 ∗ ∗ 启 动 的 时 候 , 订 阅 / d u b b o / {serviceName}/providers目录下写入自己的URL地址,这个操作就完成了服务的发布。**服务消费者**启动的时候,订阅/dubbo/ serviceName/providersURL/dubbo/{serviceName}/providers目录下的提供者URL地址, 并向/dubbo/ s e r v i c e N a m e / c o n s u m e r s 目 录 下 写 入 自 己 的 U R L 地 址 。 ∗ ∗ 注 意 ∗ ∗ , 所 有 向 Z K 上 注 册 的 地 址 都 是 临 时 节 点 , 这 样 就 能 够 保 证 服 务 提 供 者 和 消 费 者 能 够 自 动 感 应 资 源 的 变 化 。 另 外 , D u b b o 还 有 针 对 服 务 粒 度 的 监 控 , 方 法 是 订 阅 / d u b b o / {serviceName} /consumers目录下写入自己的URL地址。**注意**,所有向ZK上注册的地址都是临时节点,这样就能够保证服务提供者和消费者能够自动感应资源的变化。另外,Dubbo还有针对服务粒度的监控,方法是订阅/dubbo/ serviceName/consumersURLZKDubbo/dubbo/{serviceName}目录下所有提供者和消费者的信息。
8.4 分布式通知/协调
ZooKeeper中特有watcher注册与异步通知机制,能够很好的实现分布式环境下不同系统之间的通知与协调,实现对数据变更的实时处理。使用方法通常是不同系统都对ZK上同一个znode进行注册,监听znode的变化(包括znode本身内容及子节点的),其中一个系统update了znode,那么另一个系统能够收到通知,并作出相应处理
· 另一种心跳检测机制:检测系统和被检测系统之间并不直接关联起来,而是通过zk上某个节点关联,大大减少系统耦合。· 另一种系统调度模式:某系统有控制台和推送系统两部分组成,控制台的职责是控制推送系统进行相应的推送工作。管理人员在控制台作的一些操作,实际上是修改了ZK上某些节点的状态,而ZK就把这些变化通知给他们注册Watcher的客户端,即推送系统,于是,作出相应的推送任务。· 另一种工作汇报模式:一些类似于任务分发系统,子任务启动后,到zk来注册一个临时节点,并且定时将自己的进度进行汇报(将进度写回这个临时节点),这样任务管理者就能够实时知道任务进度。总之,使用zookeeper来进行分布式通知和协调能够大大降低系统之间的耦合
8.5 集群管理与Master选举
· 集群机器监控:这通常用于那种对集群中机器状态,机器在线率有较高要求的场景,能够快速对集群中机器变化作出响应。这样的场景中,往往有一个监控系统,实时检测集群机器是否存活。过去的做法通常是:监控系统通过某种手段(比如ping)定时检测每个机器,或者每个机器自己定时向监控系统汇报“我还活着”。 这种做法可行,但是存在两个比较明显的问题:1. 集群中机器有变动的时候,牵连修改的东西比较多。2. 有一定的延时。利用ZooKeeper有两个特性,就可以实时另一种集群机器存活性监控系统:1. 客户端在节点 x 上注册一个Watcher,那么如果 x?的子节点变化了,会通知该客户端。2. 创建EPHEMERAL类型的节点,一旦客户端和服务器的会话结束或过期,那么该节点就会消失。例如,监控系统在 /clusterServers 节点上注册一个Watcher,以后每动态加机器,那么就往 /clusterServers 下创建一个 EPHEMERAL类型的节点:/clusterServers/{hostname}. 这样,监控系统就能够实时知道机器的增减情况,至于后续处理就是监控系统的业务了。· Master选举则是zookeeper中最为经典的应用场景了。在分布式环境中,相同的业务应用分布在不同的机器上,有些业务逻辑(例如一些耗时的计算,网络I/O处理),往往只需要让整个集群中的某一台机器进行执行,其余机器可以共享这个结果,这样可以大大减少重复劳动,提高性能,于是这个master选举便是这种场景下的碰到的主要问题。利用ZooKeeper的强一致性,能够保证在分布式高并发情况下节点创建的全局唯一性,即:同时有多个客户端请求创建 /currentMaster 节点,最终一定只有一个客户端请求能够创建成功。利用这个特性,就能很轻易的在分布式环境中进行集群选取了。另外,这种场景演化一下,就是动态Master选举。这就要用到?EPHEMERAL_SEQUENTIAL类型节点的特性了。上文中提到,所有客户端创建请求,最终只有一个能够创建成功。在这里稍微变化下,就是允许所有请求都能够创建成功,但是得有个创建顺序,于是所有的请求最终在ZK上创建结果的一种可能情况是这样: /currentMaster/{sessionId}-1 ,?/currentMaster/{sessionId}-2 ,?/currentMaster/{sessionId}-3 …… 每次选取序列号最小的那个机器作为Master,如果这个机器挂了,由于他创建的节点会马上小时,那么之后最小的那个机器就是Master了。
· 在搜索系统中,如果集群中每个机器都生成一份全量索引,不仅耗时,而且不能保证彼此之间索引数据一致。因此让集群中的Master来进行全量索引的生成,然后同步到集群中其它机器。另外,Master选举的容灾措施是,可以随时进行手动指定master,就是说应用在zk在无法获取master信息时,可以通过比如http方式,向一个地方获取master。· 在Hbase中,也是使用ZooKeeper来实现动态HMaster的选举。在Hbase实现中,会在ZK上存储一些ROOT表的地址和HMaster的地址,HRegionServer也会把自己以临时节点(Ephemeral)的方式注册到Zookeeper中,使得HMaster可以随时感知到各个HRegionServer的存活状态,同时,一旦HMaster出现问题,会重新选举出一个HMaster来运行,从而避免了HMaster的单点问题
8.6 分布式锁

分布式锁,这个主要得益于ZooKeeper为我们保证了数据的强一致性。锁服务可以分为两类,一个是保持独占,另一个是控制时序。· 所谓保持独占,就是所有试图来获取这个锁的客户端,最终只有一个可以成功获得这把锁。通常的做法是把zk上的一个znode看作是一把锁,通过create znode的方式来实现。所有客户端都去创建 /distribute_lock 节点,最终成功创建的那个客户端也即拥有了这把锁。· 控制时序,就是所有视图来获取这个锁的客户端,最终都是会被安排执行,只是有个全局时序了。做法和上面基本类似,只是这里 /distribute_lock 已经预先存在,客户端在它下面创建临时有序节点(这个可以通过节点的属性控制:CreateMode.EPHEMERAL_SEQUENTIAL来指定)。Zk的父节点(/distribute_lock)维持一份sequence,保证子节点创建的时序性,从而也形成了每个客户端的全局时序。

8.7 分布式队列

队列方面,简单地讲有两种,一种是常规的先进先出队列,另一种是要等到队列成员聚齐之后的才统一按序执行。对于第一种先进先出队列,和分布式锁服务中的控制时序场景基本原理一致,这里不再赘述。

第二种队列其实是在FIFO队列的基础上作了一个增强。通常可以在 /queue 这个znode下预先建立一个/queue/num 节点,并且赋值为n(或者直接给/queue赋值n),表示队列大小,之后每次有队列成员加入后,就判断下是否已经到达队列大小,决定是否可以开始执行了。这种用法的典型场景是,分布式环境中,一个大任务Task A,需要在很多子任务完成(或条件就绪)情况下才能进行。这个时候,凡是其中一个子任务完成(就绪),那么就去 /taskList 下建立自己的临时时序节点(CreateMode.EPHEMERAL_SEQUENTIAL),当 /taskList 发现自己下面的子节点满足指定个数,就可以进行下一步按序进行处理了。

基于数据挖掘的音乐推荐系统设计与实现 需要一个代码说明,不需要论文 采用python语言,django框架,mysql数据库开发 编程环境:pycharm,mysql8.0 系统分为前台+后台模式开发 网站前台: 用户注册, 登录 搜索音乐,音乐欣赏(可以在线进行播放) 用户登陆时选择相关感兴趣的音乐风格 音乐收藏 音乐推荐算法:(重点) 本课题需要大量用户行为(如播放记录、收藏列表)、音乐特征(如音频特征、歌曲元数据)等数据 (1)根据用户之间相似性或关联性,给一个用户推荐与其相似或有关联的其他用户所感兴趣的音乐; (2)根据音乐之间的相似性或关联性,给一个用户推荐与其感兴趣的音乐相似或有关联的其他音乐。 基于用户的推荐和基于物品的推荐 其中基于用户的推荐是基于用户的相似度找出相似相似用户,然后向目标用户推荐其相似用户喜欢的东西(和你类似的人也喜欢**东西); 而基于物品的推荐是基于物品的相似度找出相似的物品做推荐(喜欢该音乐的人还喜欢了**音乐); 管理员 管理员信息管理 注册用户管理,审核 音乐爬虫(爬虫方式爬取网站音乐数据) 音乐信息管理(上传歌曲MP3,以便前台播放) 音乐收藏管理 用户 用户资料修改 我的音乐收藏 完整前后端源码,部署后可正常运行! 环境说明 开发语言:python后端 python版本:3.7 数据库:mysql 5.7+ 数据库工具:Navicat11+ 开发软件:pycharm
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值