集群架构图
zookeeper安装与集群
选择zookeeper服务器 :120、121、122。伪集群在这里就不写了,就是在一台机子上部署多个zookeeper。只是注意端口不重复,改进配置的地方都一样
-
安装zookeeper
-
zookeeper安装中需要修改的地方
-
Host增加所有zookeeper的映射(第4步)
在安装中步骤中只增加了本机的IP与服务名称映射,现在需要将所有的zookeeper主机增加到里面
# zookeeper cluster servers 192.168.27.120 zjpt-provider-01 192.168.27.121 zjpt-provider-02 192.168.27.122 zjpt-provider-03
-
zoo.cfg 配置文件(第5步)
在安装中步骤中只增加了本机的服务地址,现在需要将所有的zookeeper的服务地址增加zookeeper的配置里面
server.1=zjpt-provider-01:2888:3888 server.2=zjpt-provider-02:2888:3888 server.3=zjpt-provider-03:2888:3888
-
myid修改(第6步)
上面中如果是121的机子,其myid中的数字为2,这个数字与zoo.cfg对应的机子中server点后面的数字对应
-
- 每台机子的状态,是leader还是follower
显示下列信息zkServer.sh status
ZooKeeper JMX enabled by default Using config: /home/longloadcs/zookeeper-3.4.8/bin/../conf/zoo.cfg Mode: leader
Dubbo管控台修改
-
dubbo的管控台安装
-
dubbo.properties需要修改的地方
后面为备选地址
dubbo.registry.address=zookeeper://192.168.48.120:2888?backup=192.168.48.121:2888,192.168.48.122:2888
zookeeper集群是否正常
- 查看zookeeper的状态
zkServer.sh status
- dubbo管控台不能正常启动,但是如果正启动后挂掉将不会受影响
- dubbo不能正常访问zookeeper(服务不能注册到zookeeper)。但是dubbo之间已建立的链接可以正常使用,建立链接后有缓存将不访问zookeeper