linux mysql自动备份+把备份的文件自动移动到专用备份服务器

本文介绍如何配置crontab实现数据库的自动备份,并通过scp命令将备份文件传输至专门的备份服务器,确保数据的安全。
1  先确保安装了  crontab: 
 


操作步骤

1. 确认crontab是否安装:

执行 crontab 命令如果报 command not found,就表明没有安装

2. 安装 crontab

执行 yum install -y vixie-cron

3. 确认是否安装成功:

执行 crontab -l

4. 看是否设置了开机自动启动

chkconfig --list crond

5. 启动crontab   

service crond start


2 建立 文件夹  可以自行设置


/home/mysql_dump

/home/mysql_dump/data


3  编写脚本

cd /home/mysql_dump

  
   touch mysql_back.sh
   vi mysql_back.sh
 
 内容为:

DB_NAME="数据库名"
DB_USER="账号"
DB_PASS="密码"
BIN_DIR="/home/mysql5.6.27/bin"
BCK_DIR="/home/mysql_dump/data"
DATE=`date "+%Y-%m-%d"`
mkdir -p $BCK_DIR
$BIN_DIR/mysqldump --opt -u$DB_USER -p$DB_PASS  $DB_NAME > $BCK_DIR/$DB_NAME.dump_$DATE.sql




4 设置 定时任务


root用户登录

crontab -e

输入

59 23 * * *  /home/mysql_dump/mysql_back.sh  


说明:

前面5列 分别代表 分钟/小时/日/月/周   *表示所有

 例子是  每天 23:59执行


5 如果失败呢?

  1  手工执行 /home/mysql_dump/mysql_back.sh  检查错误
  2 如果1成功,则说明脚本没问题  
     可以crontab -e 把时间设置为下一分钟 
      然后再打开一个终端 查看 日志  tail -f /var/log/cron


   3 注意!mysql_back.sh的所有者必须是root否则 出错!



-------------------------------上面完成了,每天 23:59自动 备份数据库的功能--------------------------------------------

 -----------如果 服务器奔溃了,数据就丢掉了, 我的天,为了安全起见,可以单独搞一个专用的备份服务器,所有业务系统的数据库都存一份到这里备份------------




自动将不同服务器的 自动备份数据库文件  放到统一的服务器上,防止单个服务器奔溃,导致数据丢失


1   备份服务器  a (192.168.0.1),业务系统服务器 b(192.168.0.2)  和c (192.168.0.3)


2  在a服务器 建立2个文件夹  mkdir /home/zms/backupdb/a   mkdir /home/zms/backupdb/b




3  分别登录 b和c 生成 授权文件,以便 scp传输文件的时候不用输入密码
     ssh登录到b :   ssh-keygen -t rsa 回车,提示存放的位置,一直回车
       [root@iZbp11470vqghi5nzu90vmZ ~]# ssh-keygen -t rsa
 
     ssh登录到a: cd ~
                 mkdir .ssh (如果存在则不需要建立)


     在b上操作: scp -P22 /root/.ssh/id_rsa.pub root@192.168.0.1:~/.ssh/authorized_keys
                   输入密码复制文件
     
     测试,重启服务器a后发现,在b上再传输任何一个文件到 b ,已经不提示要密码了 
        scp -P22  测试文件.sql root@192.168.0.1:/home/zms/backupdb/a


   
   接着搞第2台服务器 c
     ssh登录到c :   ssh-keygen -t rsa 回车,提示存放的位置,一直回车
     由于备份服务器已经存在authorized_keys文件了,所以这里需要使用cat 
      scp -P22 /root/.ssh/id_rsa.pub root@192.168.0.1:~/.ssh/c.pub
      输入密码 复制
       cat ~/.ssh/c.pub >> ~/.ssh/authorized_keys


    重启服务器a ,这个时候从c复制文件到A 也 不需要密码了




 4 分别修改 b和c 上的 自动计划任务


     vi mysql_back.sh
     在最后面一行加入 自动搬迁 文件的命令
   scp -P1981 $BCK_DIR/$DB_NAME.dump_$DATE.sql  root@192.168.0.1:/home/zms/backupdb/gc


5 测试

     mysql_back.sh  //可以在 服务器a 看到 刚才创建的sql文件了。  Ok


基于TROPOMI高光谱遥感仪器获取的大气成分观测资料,本研究聚焦于大气污染物一氧化氮(NO₂)的空间分布与浓度定量反演问题。NO₂作为影响空气质量的关键指标,其精确监测对环境保护与大气科学研究具有显著价值。当前,利用卫星遥感数据结合先进算法实现NO₂浓度的高精度反演已成为该领域的重要研究方向。 本研究构建了一套以深度学习为核心的技术框架,整合了来自TROPOMI仪器的光谱辐射信息、观测几何参数以及辅助气象数据,形成多维度特征数据集。该数据集充分融合了不同来源的观测信息,为深入解析大气中NO₂的时空变化规律提供了数据基础,有助于提升反演模型的准确性与环境预测的可靠性。 在模型架构方面,项目设计了一种多分支神经网络,用于分别处理光谱特征与气象特征等多模态数据。各分支通过独立学习提取代表性特征,并在深层网络中进行特征融合,从而综合利用不同数据的互补信息,显著提高了NO₂浓度反演的整体精度。这种多源信息融合策略有效增强了模型对复杂大气环境的表征能力。 研究过程涵盖了系统的数据处理流程。前期预处理包括辐射定标、噪声抑制及数据标准化等步骤,以保障输入特征的质量与一致性;后期处理则涉及模型输出的物理量转换与结果验证,确保反演结果符合实际大气浓度范围,提升数据的实用价值。 此外,本研究进一步对不同功能区域(如城市建成区、工业带、郊区及自然背景区)的NO₂浓度分布进行了对比分析,揭示了人类活动与污染物空间格局的关联性。相关结论可为区域环境规划、污染管控政策的制定提供科学依据,助力大气环境治理与公共健康保护。 综上所述,本研究通过融合TROPOMI高光谱数据与多模态特征深度学习技术,发展了一套高效、准确的大气NO₂浓度遥感反演方法,不仅提升了卫星大气监测的技术水平,也为环境管理与决策支持提供了重要的技术工具。 资源来源于网络分享,仅用于学习交流使用,请勿用于商业,如有侵权请联系我删除!
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值