三台服务器:
- 192.168.19.210(myid=210) master
- 192.168.19.211(myid=211) slave1
- 192.168.19.212(myid=212) slave2
ZooKeeper集群配置
安装ZooKeeper集群,在上面3分节点上分别安装,使用的版本是zookeeper-3.4.5。首先在master上安装配置:
然后将master上的zookeeper复制到其他两个节点上:
scp -r /opt/zookeeper root@slave1:/opt/
scp -r /opt/zookeeper root@slave2:/opt/
修改slave1、slave2的myid文件:
vi /opt/zookeeper/data/myid
其他设置:
SolrCloud配置
首先在一个节点上对SOLR进行配置,我们选择master节点。
vi /opt/solr/home/solr.xml
注意:这里并没有配置任何的core元素,等到整个配置安装完成之后,通过SOLR提供的REST接口,来实现Collection以及Shard的创建,从而来更新这些配置文件。
ZooKeeper管理监控配置文件:
检查一下ZooKeeper上的存储情况:
Tomcat配置与启动:
tomcat 常用命令:
查看一下ZooKeeper中的数据状态:
这时候,SolrCloud集群中只有一个活跃的节点,而且默认生成了一个Designer实例,这个实例实际上虚拟的,因为通过web界面无法访问master:8080/solr,看不到任何有关SolrCloud的信息.
同步数据和配置信息,启动其他节点
启动其他Solr服务器节点:
/opt/tomcat/bin/startup.sh
查看ZooKeeper集群中数据状态:
ls /live_nodes
这时已经存在3个活跃的节点了,但是SolrCloud集群并没有更多信息.
创建Collection、Shard和Replication
创建Collection及初始Shard
直接通过REST接口来创建Collection:
如果成功,会输出如下响应内容:
上面链接中的几个参数的含义,说明如下:
name 待创建Collection的名称
numShards 分片的数量
replicationFactor 复制副本的数量
执行上述操作如果没有异常,已经创建了一个Collection,名称为Article,而且每个节点上存在一个分片。这时,也可以查看ZooKeeper中状态:
ls /collections
ls /collections/Article
可以通过Web管理页面,访问master:8080/solr/#/~cloud,查看SolrCloud集群的分片信息.
我们从master节点可以看到,SOLR的配置文件内容,已经发生了变化,如下所示:
cat /opt/solr/home/solr.xml
创建Replication
下面对已经创建的初始分片进行复制。 shard1已经在slave1上,我们复制分片到master和slave2上,执行如下命令:
最后的结果是,slave1上的shard1,在master节点上有2个副本,名称为Article_shard1_replica_2和Article_shard1_replica_3,在slave2节点上有一个副本,名称为Article_shard1_replica_4. 也可以通过查看master和slave2上的目录变化,如下所示:
ll /opt/solr/conf/
总用量 24
drwxrwxr-x. 4 root root 4096 6月 1 09:58 Designer
drwxrwxr-x. 3 root root 4096 6月 1 15:41 Article_shard1_replica_2
drwxrwxr-x. 3 root root 4096 6月 1 15:42 Article_shard1_replica_3
drwxrwxr-x. 3 hadoop root 4096 6月 1 15:23 Article_shard3_replica1
ll /opt/solr/conf/
总用量 20
drwxrwxr-x. 4 root root 4096 6月 1 14:53 Designer
drwxrwxr-x. 3 root root 4096 6月 1 15:44 Article_shard1_replica_4
drwxrwxr-x. 3 root root 4096 6月 1 15:23 Article_shard2_replica1
其中,Article_shard3_replica1和Article_shard2_replica1都是创建Collection的时候自动生成的分片,也就是第一个副本。 通过Web界面,可以更加直观地看到shard1的情况.
我们再次从master节点可以看到,SOLR的配置文件内容,又发生了变化,如下所示:
cat /opt/solr/home/solr.xml
到此为止,我们已经基于3个物理节点,配置完成了SolrCloud集群。