1.什么是SolrCloud
SolrCloud(solr 云)是Solr提供的分布式搜索方案,当你需要大规模,容错,分布式索引和检索能力时使用 SolrCloud。当一个系统的索引数据量少的时候是不需要使用SolrCloud的,当索引量很大,搜索请求并发很高,这时需要使用SolrCloud来满足这些需求。
SolrCloud是基于Solr和Zookeeper的分布式搜索方案,它的主要思想是使用Zookeeper作为集群的配置信息中心。它有几个特色功能:1)集中式的配置信息 2)自动容错 3)近实时搜索 4)查询时自动负载均衡
2.zookeeper是个什么玩意?
顾名思义zookeeper就是动物园管理员,他是用来管hadoop(大象)、Hive(蜜蜂)、pig(小猪)的管理员, Apache Hbase和 Apache Solr 的分布式集群都用到了zookeeper;Zookeeper:是一个分布式的、开源的程序协调服务,是hadoop项目下的一个子项目。主要作用于
1)集群管理
主从的管理、负载均衡、高可用的管理。集群的入口。Zookeeper必须是集群才能保证高可用。Zookeeper有选举和投票的机制。集群中至少应该有三个节点。
2)配置文件的集中管理
搭建solr集群时,需要把Solr的配置文件上传zookeeper,让zookeeper统一管理。每个节点都到zookeeper上取配置文件。
3)分布式锁
3.SolrCloud结构
SolrCloud为了降低单机的处理压力,需要由多台服务器共同来完成索引和搜索任务。实现的思路是将索引数据进行Shard(分片)拆分,每个分片由多台的服务器共同完成,当一个索引或搜索请求过来时会分别从不同的Shard的服务器中操作索引。
SolrCloud需要Solr基于Zookeeper部署,Zookeeper是一个集群管理软件,由于SolrCloud需要由多台服务器组成,由zookeeper来进行协调管理。
下图是一个SolrCloud应用的例子:
3.1物理结构
三个Solr实例( 每个实例包括两个Core),组成一个SolrCloud。
3.2逻辑结构
索引集合包括两个Shard(shard1和shard2),shard1和shard2分别由三个Core组成,其中一个Leader两个Replication,Leader是由zookeeper选举产生,zookeeper控制每个shard上三个Core的索引数据一致,解决高可用问题。用户发起索引请求分别从shard1和shard2上获取,解决高并发问题。
3.2.1 collection
Collection在SolrCloud集群中是一个逻辑意义上的完整的索引结构。它常常被划分为一个或多个Shard(分片),它们使用相同的配置信息。比如:针对商品信息搜索可以创建一个collection。
collection=shard1+shard2+....+shardX
3.2.2 Core
每个Core是Solr中一个独立运行单位,提供索引和搜索服务。一个shard需要由一个Core或多个Core组成。由于collection由多个shard组成所以collection一般由多个core组成。
3.2.3 Master或Slave
Master是master-slave结构中的主结点(通常说主服务器),Slave是master-slave结构中的从结点(通常说从服务器或备服务器)。同一个Shard下master和slave存储的数据是一致的,这是为了达到高可用目的。
3.2.4 Shard
Collection的逻辑分片。每个Shard被化成一个或者多个replication,通过选举确定哪个是Leader。
4.SolrCloud搭建
1)环境准备
2)集群需要的服务器
Zookeeper:3台,Solr:4台,Zookeeper需要安装jdk。
伪分布式,zookeeper三个实例、tomcat(solr)需要四个实例。如果是真正的生成环境,将伪集群的ip改下就可以了,步骤是一样的。
3)zookeeper集群安装
第一步:解压zookeeper,将zookeeper-3.4.6拷贝到/usr/local/solrcloud下,复制三份分别并将目录名改为zookeeper1、zookeeper2、zookeeper3
[root@localhost java]# mkdir /usr/local/solrcloud
[root@localhost java]# cp zookeeper-3.4.6 /usr/local/solrcloud/zookeeper1 -r
[root@localhost java]# cp zookeeper-3.4.6 /usr/local/solrcloud/zookeeper2 -r
[root@localhost java]# cp zookeeper-3.4.6 /usr/local/solrcloud/zookeeper3 -r
第二步:进入zookeeper1文件夹,创建data目录。并在data目录中创建一个myid文件内容为“1”(echo 1 >> data/myid)。
[root@localhost zookeeper1]# mkdir data
[root@localhost zookeeper1]# echo 1>> data/myid
第三步:进入conf文件夹,把zoo_sample.cfg改名为zoo.cfg
[root@localhost java]# cd /usr/local/solrcloud/zookeeper1/conf
[root@localhost conf]# cp zoo_sample.cfg zoo.cfg
第四步:修改zoo.cfg。
修改:
dataDir=/usr/local/solrcloud/zookeeper1/data
clientPort=2181(zookeeper2中为2182、zookeeper3中为2183)
添加:
server.1=192.168.25.150:2881:3881
server.2=192.168.25.150:2882:3882
server.3=192.168.25.150:2883:3883
第五步:对zookeeper2、3中的设置做第二步至第四步修改。
zookeeper2:
myid内容为2
dataDir=/usr/local/solrcloud/zookeeper2/data
clientPort=2182
添加:
server.1=192.168.25.150:2881:3881
server.2=192.168.25.150:2882:3882
server.3=192.168.25.150:2883:3883
Zookeeper3:
的myid内容为3
dataDir=/usr/local/solrcloud/zookeeper3/data
clientPort=2183
添加:
server.1=192.168.25.150:2881:3881
server.2=192.168.25.150:2882:3882
server.3=192.168.25.150:2883:3883
第六步:启动三个zookeeper
[root@localhost solrcloud]# vi start-zookeeper.sh
内容如下:
/usr/local/solrcloud/zookeeper1/bin/zkServer.sh start
/usr/local/solrcloud/zookeeper2/bin/zkServer.sh start
/usr/local/solrcloud/zookeeper3/bin/zkServer.sh start
查看集群状态:
[root@localhost solrcloud]# vi status-zookeeper.sh
内容如下:
/usr/local/solrcloud/zookeeper1/bin/zkServer.sh status
/usr/local/solrcloud/zookeeper2/bin/zkServer.sh status
/usr/local/solrcloud/zookeeper3/bin/zkServer.sh status
停止zookeeper:
[root@localhost solrcloud]# vi stop-zookeeper.sh
内容如下:
/usr/local/solrcloud/zookeeper1/bin/zkServer.sh stop
/usr/local/solrcloud/zookeeper2/bin/zkServer.sh stop
/usr/local/solrcloud/zookeeper3/bin/zkServer.sh stop
分别赋予操作权限
[root@localhost solrcloud]# chmod 777 start-zookeeper.sh
[root@localhost solrcloud]# chmod 777 status-zookeeper.sh
[root@localhost solrcloud]# chmod 777 stop-zookeeper.sh
第七步:开启zookeeper用到的端口,修改/etc/sysconfig/iptables文件,之后重启iptables服务
[root@localhost sysconfig]# systemctl restart iptables.service
,或者直接关闭防火墙。
service iptables stop
4)搭建solr集群
第一步:将apache-tomcat-7.0.47.tar.gz解压
[root@localhost java]# tar -zxvf apache-tomcat-7.0.47.tar.gz
第二步:把解压后的tomcat复制到/usr/local/solrcloud/目录下复制四份。
/usr/local/solrcloud/tomcat1
/usr/local/solrcloud/tomcat2
/usr/local/solrcloud/tomcat3
/usr/local/solrcloud/tomcat4
第三步:修改tomcat的server.xml
[root@localhost conf]# vim tomcat2/conf/server.xml
把其中的端口后都加一。保证两个tomcat可以正常运行不发生端口冲突。
第四步:向tomcat下部署solr。把单机版的solr工程复制到tomcat下即可。若不会搭建单机版solr,可参考http://blog.csdn.net/qq_35029429/article/details/78975094
第五步:为每个solr实例创建一solrhome,若不会创建solrhome,可参考http://blog.csdn.net/qq_35029429/article/details/78975094
第六步:为每个solr实例关联对应的solrhome。修改web.xml
[root@localhost /]# cd /usr/local/solrcloud/tomcat1/webapps/solr/WEB-INF
[root@localhost WEB-INF]# vim web.xml
第七步:修改每个solrhome下的solr.xml文件。修改host、hostPort两个属性。分别是对应的ip及端口号。
第八步:把配置文件上传到zookeeper。需要使用
/java/solr-4.10.3/example/scripts/cloud-scripts/zkcli.sh命令上传配置文件。
把/usr/local/solr-cloud/solrhome01/collection1/conf目录上传到zookeeper。
需要zookeeper集群已经启动。
[root@localhost cloud-scripts]#./zkcli.sh -zkhost 10.39.12.237:2181,10.39.12.237:2182,10.39.12.237:2183 -cmd upconfig -confdir /usr/local/solrcloud/solrhome1/collection1/conf -confname myconf
第九步:查看是否上传成功。
使用zookeeper的zkCli.sh命令。
第十步:告诉solr实例zookeeper的位置。需要修改tomcat的catalina.sh添加
JAVA_OPTS="-DzkHost=10.39.12.237:2181,10.39.12.237:2182,10.39.12.237:2183"
每个节点都需要添加。
第十一步:启动每个solr实例,即启动每一台solr的tomcat服务。
[root@localhost solrcloud]# vi startall-tomcat.sh
/usr/local/solrcloud/tomcat1/bin/startup.sh
/usr/local/solrcloud/tomcat2/bin/startup.sh
/usr/local/solrcloud/tomcat3/bin/startup.sh
/usr/local/solrcloud/tomcat4/bin/startup.sh
[root@localhost solrcloud]# chmod 777 startall-tomcat.sh
5.访问solrcloud
访问任意一台solr,左侧菜单出现Cloud
6. SolrCloud集群配置
上图中的collection1集群只有一片,可以通过下边的方法配置新的集群。如果集群中有四个solr节点创建新集群collection2,将集群分为两片,每片两个副本。
http://10.39.12.237:8080/solr/admin/collections?action=CREATE&name=collection2&numShards=2&replicationFactor=2
删除集群命令;
http://10.39.12.237:8080/solr/admin/collections?action=DELETE&name=collection1
执行后原来的collection1删除,如下:
7.启动solrCloud注意
启动solrCloud需要先启动solrCloud依赖的所有zookeeper服务器,再启动每台solr服务器。