mdadm服务
options that are valid with --create(-c) are:
# 等级 级别-1:raid level:0,1,4,5,6,10,linear,multipath and synonyms# raid需要使用的设备
--leve]=
--raid-devices=-n:number of active devices in array# raid空闲设备
--spare-devices= -x:number of spare (extra)devices in initial array
全称
mdadm --create /dev/md5 --1eve1=5 --raid-devices=3 /dev/sdb1 /dev/sdb2 /dev/sdb3 --spare-devices=1 /dev/sdb4简称
mdadm -C /dev/md5 -l5 -n3 /dev/sdb{1..3} -x1 /dev/sdb4
查看md设备
mdadm -D /dev/md5
@@@@@@@@@@@@@@@@@@@@@@@@@ 学习数据库主从配置 @@@@@@@@@@@@@@@@@@@@@@@@@22
我想要实现的就是 xnode1节点的数据库 --> 我创建了一个wu数据库 那么在xnode2节点的数据库 应该也有一个wu数据库
1. 两个节点 安装数据库
yum install -y mariadb mariadb-server
2. 两个节点 都启动数据库
systemctl start mariadb
3. 两个节点都给予密码 000000
mysqladmin password 000000
4. 测试登录
mysql -uroot -p000000
5. 没问题之后退出登录进行下一步 修改配置文件 增加server_id 开启log_bin
# 一定要注意 是增加 不是修改
vi /etc/my.cnf
[mysqld]
server_id=1(xnode1是等于1,xnode2是等于2)
log_bin=mysql-bin
6. 修改完成之后 两个节点一定要重启服务
systemctl restart mariadb
7. 在xnode1节点 开始给予一个user用户 密码为000000
[root@xnode1 ~]# mysql -uroot -p000000
MariaDB [(none)]> grant replication slave on *.* to 'user'@'192.168.200.12' identified by '000000';
MariaDB [(none)]> flush privileges;
8. 在xnode2节点 进行加入master节点 然后启动slave 再查看状态
[root@xnode2 ~]# mysql -uroot -p000000
MariaDB [(none)]> CHANGE MASTER TO MASTER_HOST='192.168.200.11',MASTER_USER='user',MASTER_PASSWORD='000000';
MariaDB [(none)]> start slave;
MariaDB [(none)]> show slave status\G;
*************************** 1. row ***************************
Slave_IO_State: Waiting for master to send event
Master_Host: 192.168.200.11
Master_User: user
Master_Port: 3306
Connect_Retry: 60
Master_Log_File: mysql-bin.000001
Read_Master_Log_Pos: 475
Relay_Log_File: mariadb-relay-bin.000002
Relay_Log_Pos: 759
Relay_Master_Log_File: mysql-bin.000001
Slave_IO_Running: Yes
Slave_SQL_Running: Yes
检查两个yes 就没有问题
9. 测试 在xnode1节点创建一个数据库 然后再xnode2节点查看有无此数据库
[root@xnode1 ~]# mysql -uroot -p000000
MariaDB [(none)]> create database wu;
[root@xnode2 ~]# mysql -uroot -p000000
MariaDB [(none)]> show databases;
@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@
# 前面的内容一定要做
zookeeper以及kafka集群 相关部署
1、JDK环境 java环境 --> 1.8.0
yum install -y java-1.8.0-openjdk java-1.8.0-openjdk-devel 【三台都需要安装JDK环境】
2、解压我们的zookeeper的压缩包
tar -zxvf zookeeper-3.4.14.tar.gz
3、我们选择性的做免密认证
ssh-keygen
ssh-copy-id xnode2
ssh-copy-id xnode3
4、更改zookeeper的配置文件的名字
mv /root/zookeeper-3.4.14/conf/zoo_sample.cfg /root/zookeeper-3.4.14/conf/zoo.cfg
5、我们查看到cfg文件里面有data目录的指向 但是我们没有这个目录 则三台都需要创建
mkdir /tmp/zookeeper 【三台都需要创建目录】
6、我们需要myid来识别我们机器的信息
echo 1 > /tmp/zookeeper/myid 【xnode1需要执行的命令】
echo 2 > /tmp/zookeeper/myid 【xnode2需要执行的命令】
echo 3 > /tmp/zookeeper/myid 【xnode3需要执行的命令】
7、我们需要更改配置文件 zoo.cfg 增加IP信息
vi /root/zookeeper-3.4.14/conf/zoo.cfg
server.1=192.168.200.11:2888:3888
server.2=192.168.200.12:2888:3888
server.3=192.168.200.13:2888:3888
8、我们再来进行拷贝 将xnode1上面的zookeeper目录进行拷贝至另外两台
scp -r /root/zookeeper-3.4.14 xnode2:/root
scp -r /root/zookeeper-3.4.14 xnode3:/root
9、部署net插件 可以使用netstat 命令【三台都执行】
yum install -y net-tools
netstat -nltp
10、启动zookeeper集群服务【三台都执行】
cd /root/zookeeper-3.4.14/bin/
./root/zookeeper-3.4.14/bin/zkServer.sh start
cd到root下:
zookeeper-3.4.14/bin/zkServer.sh start
11、验证
./root/zookeeper-3.4.14/bin/zkServer.sh status
cd到root下:
zookeeper-3.4.14/bin/zkServer.sh status
两个follower一个leader