12345

mdadm服务
options that are valid with --create(-c) are:
# 等级 级别-1:raid level:0,1,4,5,6,10,linear,multipath and synonyms# raid需要使用的设备
--leve]=
--raid-devices=-n:number of active devices in array# raid空闲设备
--spare-devices= -x:number of spare (extra)devices in initial array
全称
mdadm --create /dev/md5 --1eve1=5 --raid-devices=3 /dev/sdb1 /dev/sdb2 /dev/sdb3 --spare-devices=1 /dev/sdb4简称
mdadm -C /dev/md5 -l5 -n3 /dev/sdb{1..3} -x1 /dev/sdb4
查看md设备
mdadm -D /dev/md5


@@@@@@@@@@@@@@@@@@@@@@@@@ 学习数据库主从配置 @@@@@@@@@@@@@@@@@@@@@@@@@22
我想要实现的就是 xnode1节点的数据库 --> 我创建了一个wu数据库 那么在xnode2节点的数据库 应该也有一个wu数据库

1. 两个节点 安装数据库
yum install -y mariadb mariadb-server
2. 两个节点 都启动数据库
systemctl start mariadb 
3. 两个节点都给予密码 000000
mysqladmin password 000000
4. 测试登录
mysql -uroot -p000000 
5. 没问题之后退出登录进行下一步 修改配置文件 增加server_id 开启log_bin
# 一定要注意 是增加 不是修改
vi /etc/my.cnf
[mysqld]
server_id=1(xnode1是等于1,xnode2是等于2)
log_bin=mysql-bin
6. 修改完成之后 两个节点一定要重启服务
systemctl restart mariadb
7. 在xnode1节点 开始给予一个user用户 密码为000000
[root@xnode1 ~]# mysql -uroot -p000000
MariaDB [(none)]> grant replication slave on *.* to 'user'@'192.168.200.12' identified by '000000';
MariaDB [(none)]> flush privileges;

8. 在xnode2节点 进行加入master节点 然后启动slave 再查看状态
[root@xnode2 ~]# mysql -uroot -p000000
MariaDB [(none)]> CHANGE MASTER TO MASTER_HOST='192.168.200.11',MASTER_USER='user',MASTER_PASSWORD='000000';
MariaDB [(none)]> start slave;
MariaDB [(none)]> show slave status\G;
*************************** 1. row ***************************
               Slave_IO_State: Waiting for master to send event
                  Master_Host: 192.168.200.11
                  Master_User: user
                  Master_Port: 3306
                Connect_Retry: 60
              Master_Log_File: mysql-bin.000001
          Read_Master_Log_Pos: 475
               Relay_Log_File: mariadb-relay-bin.000002
                Relay_Log_Pos: 759
        Relay_Master_Log_File: mysql-bin.000001
             Slave_IO_Running: Yes
            Slave_SQL_Running: Yes
            
检查两个yes 就没有问题

9. 测试 在xnode1节点创建一个数据库 然后再xnode2节点查看有无此数据库

[root@xnode1 ~]# mysql -uroot -p000000
MariaDB [(none)]> create database wu;
[root@xnode2 ~]# mysql -uroot -p000000
MariaDB [(none)]> show databases; 

@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@@

# 前面的内容一定要做

zookeeper以及kafka集群 相关部署

1、JDK环境 java环境 --> 1.8.0

yum install -y java-1.8.0-openjdk java-1.8.0-openjdk-devel 【三台都需要安装JDK环境】

2、解压我们的zookeeper的压缩包
tar -zxvf zookeeper-3.4.14.tar.gz

3、我们选择性的做免密认证
ssh-keygen
ssh-copy-id xnode2
ssh-copy-id xnode3

4、更改zookeeper的配置文件的名字
mv /root/zookeeper-3.4.14/conf/zoo_sample.cfg /root/zookeeper-3.4.14/conf/zoo.cfg

5、我们查看到cfg文件里面有data目录的指向 但是我们没有这个目录 则三台都需要创建
mkdir /tmp/zookeeper   【三台都需要创建目录】

6、我们需要myid来识别我们机器的信息
echo 1 > /tmp/zookeeper/myid  【xnode1需要执行的命令】
echo 2 > /tmp/zookeeper/myid  【xnode2需要执行的命令】
echo 3 > /tmp/zookeeper/myid  【xnode3需要执行的命令】

7、我们需要更改配置文件 zoo.cfg 增加IP信息
vi /root/zookeeper-3.4.14/conf/zoo.cfg
server.1=192.168.200.11:2888:3888     
server.2=192.168.200.12:2888:3888    
server.3=192.168.200.13:2888:3888    


8、我们再来进行拷贝 将xnode1上面的zookeeper目录进行拷贝至另外两台
scp -r /root/zookeeper-3.4.14 xnode2:/root
scp -r /root/zookeeper-3.4.14 xnode3:/root

9、部署net插件 可以使用netstat 命令【三台都执行】
yum install -y net-tools
netstat -nltp

10、启动zookeeper集群服务【三台都执行】
cd /root/zookeeper-3.4.14/bin/
./root/zookeeper-3.4.14/bin/zkServer.sh start
cd到root下:
zookeeper-3.4.14/bin/zkServer.sh start

11、验证
./root/zookeeper-3.4.14/bin/zkServer.sh status
cd到root下:
zookeeper-3.4.14/bin/zkServer.sh status

两个follower一个leader
 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值